Monte-Carlo Simulation und Fuzzyfizierung qualitativerInformationen bei der Unternehmensbewertung
Martin Klein
Monte-Carlo Simulation
und Fuzzyfizierung
qualitativer Informationen
bei der Unternehmensbewertung
Inaugural-Dissertation
zur Erlangung des akademischen Grades eines Doktors
der Wirtschafts- und Sozialwissenschaften
(Dr. rer. pol.)
der Friedrich-Alexander-Universität Erlangen-Nürnberg
vorgelegt von: Dipl.-Kfm. Martin Klein
aus: Nürnberg
Erstreferent: Professor Dr. Klaus Henselmann
Zweitreferent: Professor Dr. Wolfram Scheffler
Tag der mündlichen Prüfung: 3. Februar 2011
Vorwort
Die vorliegende kumulative Arbeit entstand im Rahmen meiner Tätigkeit als wissen-
schaftlicher Mitarbeiter am Lehrstuhl für Rechnungswesen und Prüfungswesen an der
Friedrich-Alexander-Universität Erlangen-Nürnberg. Mit abgeschlossener Dissertation
geht für mich auch ein sehr schöner und intensiver Lebensabschnitt zu Ende.
An dieser Stelle möchte ich meinen Dank an all diejenigen richten, die mich bei der
Erstellung der Arbeit tatkräftig unterstützt und begleitet haben. Ganz besonders möchte
ich mich bei meinem Doktorvater und akademischen Lehrer, Herrn Professor Dr. Klaus
Henselmann, bedanken. Er gab mir stets wichtige Impulse, die maßgeblich zum Gelin-
gen der Dissertation beigetragen haben. Bedanken möchte ich mich auch bei Herrn Pro-
fessor Dr. Wolfram Scheffler für die zügige Erstellung des Zweitgutachtens.
Weiterhin würdige ich meine ehemaligen und gegenwärtigen Lehrstuhlkollegen, die mir
eine wichtige Stütze während der Promotionsphase waren. An erster Stelle spreche ich
meiner geschätzten Kollegin Frau Dipl.-Kffr. Elisabeth Scherr für die wertvollen – ins-
besondere fachlichen und methodischen Aspekte betreffenden – Anregungen meinen
Dank aus. Sehr verbunden bin ich auch Herrn Dipl.-jur. oec. Benedikt Fürst. Aufgrund
seiner interdisziplinären Kenntnisse und hilfsbereiten Art bildete er mir ein wichtiges
Rückgrat bei den Formatierungsarbeiten. Des Weiteren sorgten Frau Dipl.-jur. oec. Le-
na Borgwardt, Herr Dipl.-Kfm. Matthias Jepp, Frau Inge Molkenthin und Frau Dipl.-
Kffr. Claudia Schrenker durch ihre stete Hilfsbereitschaft und herzliche Art für ein sehr
angenehmes Lehrstuhlklima. Auch ihnen gilt mein aufrichtiger Dank. Meinen ehemali-
gen Kollegen Herrn Dr. Benjamin Roos, Frau Dr. Susanne Fink und Frau Dr. Andrea
Prinz danke ich für die wertvolle Unterstützung im Rahmen meiner ersten Monate am
Lehrstuhl.
Für die orthografischen Korrekturen der einzelnen Arbeitspapiere und Zeitschriftenbei-
träge möchte ich den studentischen Hilfskräften des Lehrstuhls, insbesondere Frau Ra-
mona Christ, Frau Alexandra Kaiser und Frau Julia Merkl, besonders danken.
Sehr dankbar bin ich auch meinen Freunden. Ohne unsere „abwechslungsreichen Akti-
onen“ und Gespräche wäre ein Gelingen der Arbeit wohl um ein vielfaches schwieriger
gewesen. Zugleich ermöglichten sie mir den zeitweise notwendigen Abstand zur Arbeit.
Danken möchte ich auch für den moralischen und „kirchlichen“ Beistand, welchen mir
meine Geschwister Stefan und Sonja sowie meine Großmutter Emilie stets entgegen-
brachten.
Besonders herzlicher Dank gebührt abschließend meinen Eltern. Ihre uneingeschränkte,
selbstlose Förderung und ihre liebevolle Unterstützung gaben mir stets einen wichtigen
Rückhalt in manch verzwickter Lage. Sie waren es auch, die mir das Rüstzeug einer
jeden erfolgreichen Arbeit in die Wiege gelegt haben: Fleiß, Ausdauer und Ehrgeiz.
Ihnen sei diese Dissertation gewidmet.
Nürnberg, im Februar 2011
Martin Klein
Inhaltsübersicht
Abschnitt A: Einführung ............................................................................................... 1
Abschnitt B: Hauptteil ................................................................................................. 19
Abschnitt B.1: Monte-Carlo Simulation und Due Diligence ......................................... 21
Abschnitt B.2: Valuation is fuzzy................................................................................... 47
Abschnitt B.3: Add-In basierte Softwaretools zur stochastischen
Unternehmensbewertung? .................................................................... 137
Abschnitt C: Schluss ................................................................................................... 207
Anhang ......................................................................................................................... 219
Anhang 1: Monte-Carlo-Simulation in der Due Diligence .......................................... 221
Anhang 2: Fuzzy-Set Theorie im Risikomanagement .................................................. 233
Anhang 3: Proaktives Risikomanagement im Mittelstand ........................................... 257
1
Abschnitt A
Einführung
2
3
Gliederung
1 Ausgangssituation ........................................................................................................ 5
2 Problemfelder und Zielsetzungen ................................................................................ 8
2.1 Datengewinnung und Teamarbeit: „Monte-Carlo Simulation und Due
Diligence“ ......................................................................................................... 8
2.2 Wissensmanagement und Aggregierung mehrerer qualitativer Risiken:
„Valuation is fuzzy“ ....................................................................................... 10
2.3 Leistungsbeurteilung der Software: „Add-In basierte Softwaretools zur
stochastischen Unternehmensbewertung?“ .................................................... 13
Literaturverzeichnis ........................................................................................................ 15
4
5
1 Ausgangssituation
Ökonomische Entscheidungen sind abhängig von den erwarteten Erträgen eines potenti-
ellen Zielunternehmens und den darauf einwirkenden Risiken. In deterministischen Be-
wertungsmodellen wird jedoch nur ein Wert – nämlich der mit der höchsten Eintritts-
wahrscheinlichkeit – kalkuliert, d.h. den Ausprägungen aller identifizierten Risikofakto-
ren fällt die Eintrittswahrscheinlichkeit eins zu.1 Bei herkömmlichen Unternehmensbe-
wertungen spiegeln sich somit die Unsicherheiten der einzelnen Größen des Planungs-
modells nicht unmittelbar im Ergebnis wider. Mit anderen Worten, der Bewertungsad-
ressat erhält keine Auskunft über die möglichen Schwankungsbandbreiten und damit die
Eintrittswahrscheinlichkeiten künftiger Risiken.
Das Capital Asset Pricing Model (CAPM)2 ist zur vollständigen Risikoableitung eines
Unternehmens wenig geeignet, da die engen Prämissen in der Praxis nicht einmal nähe-
rungsweise gegeben sind. Des Weiteren erlauben die engen Modellprämissen einen
enormen Bewertungs- und Manipulationsspielraum.3 Bei vielen kleinen und mittleren
Unternehmen können zudem aufgrund fehlender Börsennotierung keine Betawerte er-
mittelt werden.4 Nicht zuletzt erscheint die Missachtung unsystematischer Risiken häu-
fig als realitätsfern.5 Die Individualisierung der Risikomenge hat unter diesen Umstän-
den anhand alternativer Methoden zu erfolgen, welche alle auf ein Unternehmen ein-
wirkenden systematischen und unsystematischen Risiken erfassen und aggregieren.
Um den Gesamtumfang der quantifizierbaren Risiken (z.B. Absatzmenge, Rohstoffprei-
se, Personalkosten, etc.) in entsprechenden Risikoprofilen darzustellen, ist der Einsatz
von Simulationsverfahren erforderlich.6 Eine besonders zukunftsbasierte Variante bietet
hierbei die Monte-Carlo Simulation.7
1 Vgl. Reinhart, G./von Bredow, M.: ZWF 2008, S. 834.
2 Vgl. zum CAPM bspw. Henselmann, K./Kniest, W.: Unternehmensbewertung, S. 219-223.
3 Vgl. hierzu Fink, S.: Bewertungsprobleme, S. 219-220 m.w.N.
4 Vgl. zur Bestimmung von Betawerten bspw. Kern, C./Mölls, S.: CF biz 2010, S. 440-448.
5 Vgl. Gleißner, W./Kamaras, E./Wolfrum, M.: Beteiligungen, S. 130-131.
6 Vgl. zu den Simulationsverfahren Henselmann, K./Klein, M./Fürst, B.: CF biz 2010, S. 460-464.
7 Vgl. Henselmann, K./Klein, M.: Der Konzern 2010, S. 352.
6
Obwohl die theoretische Beschreibung der Monte-Carlo Simulation bereits seit einigen
Jahren verstärkt in der wissenschaftlichen Literatur Eingang gefunden hat,8 wird das
Konzept in der Unternehmensbewertungspraxis nach wie vor als eine rein wissenschaft-
liche Disziplin mit geringem praktischen Nutzen betrachtet. Insbesondere die noch vor-
herrschende Auffassung, dass die Durchführung einer Simulationsrechnung leistungsfä-
hige Rechnerkapazitäten, eine kostspielige Spezialsoftware und ein vertieftes statisti-
sches Wissen der Mitglieder des Due Diligence Reviews bzw. der Bewertungsexperten
erfordert, gibt deterministischen Varianten – wie den klassischen DCF- und
Multiplikatorverfahren – häufig den Vorrang.9
Der Einsatz von Monte-Carlo Simulationen in der Unternehmensbewertung weist viele
potenzielle Vorteile auf. Sie erlaubt es nämlich die aggregierte Risikomenge eines Un-
ternehmens zu berechnen. Mit deren Kenntnis ist es möglich10
die Prognosesicherheit, d.h. den Umfang möglicher risikobedingter Planabweichun-
gen zu beurteilen,
den Bedarf an Eigenkapital und damit die risikogerechte Finanzierungsstruktur zu
ermitteln,
die künftige Entwicklung der Insolvenzwahrscheinlichkeit einzuschätzen und diese
bei den Kapitalkosten zu berücksichtigen sowie
risikogerechte Kapitalkostensätze (Diskontierungszinssätze) ohne Rückgriff auf das
CAPM abzuleiten.
Zusätzlich ist die Monte-Carlo Simulation besonders geeignet, alternative Unterneh-
mensstrategien zu bewerten. Diese Möglichkeit ist gerade bei Akquisitionen von größter
Bedeutung und macht ihre Anwendung besonders attraktiv.
Um die in einem Zielunternehmen liegenden – systematischen und nicht diversifizierten
unsystematischen – Einzelrisiken aggregieren zu können, müssen diese durch geeignete
Verteilungen beschrieben und dann denjenigen Positionen des Planungsmodells zuge-
8 Vgl. in Zusammenhang mit der Unternehmensbewertung bspw. Gillenkirch, R. M./Thamm, R.:
WiSt 2008, S. 685-689; Gleißner, W./Wolfrum, M.: M&A Review 2008, S. 343-350; Jödicke, D.:
FB 2007, S. 166-171; Moser, U./Schieszl, S.: FB 2001, S. 530-541; Sureth, C./Nordhoff, D.: DB
2008, S. 305-311.
9 Vgl. bspw. Henselmann, K./Barth, T.: Empirie, S. 21-24.
10 Vgl. bspw. Gleißner, W.: WPg 2010, S. 737-742; Klein, M./Höfner, A.: KSI 2011, S. 5-12.
7
ordnet werden, bei denen die Risiken zu wesentlichen negativen oder positiven Planab-
weichungen führen können.
Dennoch bleiben einige Fragestellungen in Zusammenhang mit der Monte-Carlo Simu-
lation offen. Beispielsweise sind viele wertbeeinflussende qualitative Risiken (kulturelle
Unterschiede, Marktstrategien und Managementfähigkeiten, etc.) nicht mit scharfen
Verteilungen bzw. Eintrittswahrscheinlichkeiten, sondern lediglich mit unscharfen
(engl. fuzzy) Termen wie etwa „ausreichend“, „genügend“, „stark“ oder „schwach“ zu
umschreiben. Monetär nicht unmittelbar quantifizierbare Risiken werden – anders als
im vorgelagerten Screening – damit in der Simulation des Planungsmodells nicht oder
lediglich ungenau berücksichtigt.11
Ein Verfahren, welches qualitative Risiken aggregieren kann, stellt die Fuzzy-Set Theo-
rie dar.12
Fuzzy basierte Methoden werden seit Jahren erfolgreich in der Regelungstech-
nik angewendet. Am bekanntesten sind die Regelungen von Staubsaugern, Waschma-
schinen und anderen technischen Anlagen.13
Der Grundgedanke besteht darin, sich die
Möglichkeit der unscharfen Beschreibung von Sachverhalten durch linguistische Vari-
ablen und Terme zunutze zu machen. Dieses Konzept lässt sich auch auf betriebswirt-
schaftliche Fragestellungen übertragen.
Die Vorgehensweise ist dabei mit einem Fuzzy-Regler zu vergleichen, der die vorlie-
genden Eingangsdaten (z.B. qualitative Risikoinformationen über ein Zielunternehmen)
zunächst fuzzyfiziert, also in Zugehörigkeitswerte zu den vorher formulierten linguisti-
schen Termen „übersetzt“, die vorliegenden Informationen in der Fuzzy-Inferenz an-
schließend softwaregestützt aggregiert, d.h. mathematisch zusammenführt und abschlie-
ßend durch eine Defuzzyfizierung in einen quantitativ verarbeitbaren Wert des Pla-
nungsmodells umrechnet.
Eine aussagekräftige Verarbeitung und Aggregierung quantitativer und qualitativer Ri-
siken ist jedoch nur dann möglich, wenn verschiedene Probleme überwunden werden
können.14
11
Vgl. zur Einschätzung qualitativer Faktoren im Screening bspw. Hendel, H.: Bewertung, S. 47-68.
12 Zur allgemeinen Funktionsweise vgl. bspw. Momsen, B.: Wissensmanagement, S. 66-78.
13 Vgl. Guttenberger, S.: ZP 1999, S. 290; Steinmüller, H.: Waschautomaten, S. 155-168.
14 Vgl. Gleißner, W.: Risikomanagement, S. 102.
8
Hierzu gehören
die eingeschränkte Datenverfügbarkeit (Notwendigkeit der Datengewinnung),
die Koordination der Teamarbeit (Notwendigkeit zur Zusammenführung verschie-
dener Experteneinschätzungen),
die Speicherung und Nutzung von Branchenwissen (Notwendigkeit eines Wissens-
managements),
das simultane Wirken verschiedener Risikofaktoren (Problem der Aggregierung),
die komplexen Rechenvorgänge (Bedarf an leistungsfähigen Softwaretools).
Der Beitrag zur betriebswirtschaftlichen Forschung, den die vorliegende Dissertation zu
leisten bestrebt ist, stellt Lösungsansätze der eben aufgezeigten Probleme dar, um so die
Vorteile der Monte-Carlo Simulation – insbesondere unter Rückgriff auf die Fuzzy-Set
Theorie und moderne Softwarelösungen – im Rahmen der Unternehmensbewertung
weiter zu untermauern.
Die kumulative Arbeit ist hierzu in drei Abschnitte gegliedert. An die Einführung (A)
schließt sich der in drei Arbeitspapiere untergliederte Hauptteil (B) an. Die Ausführun-
gen enden in Teil C mit einer thesenförmigen und kritischen Zusammenfassung der vor-
gestellten Konzepte, verbunden mit einem Ausblick auf den weiteren Forschungsbedarf.
Der Anhang enthält die in verschiedenen Zeitschriften veröffentlichten Ausschnitte die-
ser Arbeit.
2 Problemfelder und Zielsetzungen
2.1 Datengewinnung und Teamarbeit: „Monte-Carlo Simulation
und Due Diligence“
Die Schritte zur Ermittlung notwendiger Verteilungen wurden in den bisherigen Veröf-
fentlichungen zur stochastischen Unternehmensbewertung noch nicht näher problemati-
siert.
In der Bewertungspraxis sind Verteilungen im Regelfall aufgrund fehlender historischer
Datenpunkte nur schwer ermittelbar oder aufgrund der Instabilität der Datenpunkte
nicht auf die Zukunft fortschreibbar. Eine Due Diligence hat sich daher auch mit der
Frage zu beschäftigen, welcher Verteilung oder Eintrittswahrscheinlichkeit die identifi-
9
zierten Risiken folgen. Besondere zusätzliche Probleme tauchen dann auf, wenn die
Mitglieder eines Expertenteams zu unterschiedlichen Verteilungseinschätzungen kom-
men und daher eine Verteilung konstruiert werden muss, welche die Kenntnisse aller
Teammitglieder angemessen berücksichtigt. Die Ermittlung und Zusammenführung von
Verteilungen der wichtigsten Risikotreiber im Rahmen des Due Diligence Reviews lie-
fert dem Entscheidungsträger wichtige Hinweise über die aggregierte Risikoeinschät-
zung der beteiligten Experten.
Das erste, im Mai 2010 erschienene Arbeitspapier „Monte-Carlo Simulation und Due
Diligence“ (in etwas modifizierter Form veröffentlicht in: M&A Review 2010, Heft 7,
siehe Anhang 1) bietet einen Lösungsansatz, wie Verteilungen anhand einer Experten-
befragung ermittelt und anhand einfacher Softwaretools kombiniert werden können.
Damit wird über alle Risikofaktoren hinweg das Ziel erreicht, eine aggregierte Zah-
lungsstromverteilung zu generieren, die die Risikosituation unter Berücksichtigung aller
Expertenmeinungen widerspiegelt.
wesentliche quantitative Risiken in der Planrechnung (aus Risikoinventar)
Due Diligence:
Ermittlung der Verteilungen bzw. Eintrittswahrscheinlichkeiten der relevanten Risiken
hierfür: Befragung mehrerer Experten (modifizierte Delphi-Methode)
computergestützte Aggregierung der verschiedenen Expertenschätzungen(= aggregierte Verteilungen/Eintrittswahrscheinlichkeiten der relevanten Risiken in der Planrechnung)
wesentliche quantitative Risiken in der Planrechnung (aus Risikoinventar)
Due Diligence:
Ermittlung der Verteilungen bzw. Eintrittswahrscheinlichkeiten der relevanten Risiken
hierfür: Befragung mehrerer Experten (modifizierte Delphi-Methode)
computergestützte Aggregierung der verschiedenen Expertenschätzungen(= aggregierte Verteilungen/Eintrittswahrscheinlichkeiten der relevanten Risiken in der Planrechnung)
Abb. 1: Prozessschritte zur Ermittlung der Risikosituation einzelner Plangrößen unter
Berücksichtigung aller Expertenmeinungen
Das Arbeitspapier beschreibt hierzu zunächst grundlegende Vorarbeiten, um aus einem
erstellten Risikoinventar mehrwertig zu formulierende Wert- und Risikotreiber ableiten
zu können. Anschließend wird die Frage beantwortet, wie durch eine Modifizierung der
10
klassischen Delphi-Methode aus den identifizierten Risiken – trotz unterschiedlicher
Experteneinschätzungen – geeignete Verteilungen für das Planungsmodell konstruiert
werden können (vgl. Abb. 1).
2.2 Wissensmanagement und Aggregierung mehrerer qualitativer
Risiken: „Valuation is fuzzy“
Stochastische Planungsmodelle berücksichtigen in der Regel nur quantitative Einfluss-
faktoren, die Auswirkungen auf einzelne monetäre Größen des Planungsmodells haben.
Erfolgskritische qualitative Größen – wie bspw. die Mitarbeitermotivation, die akquisi-
tionsbedingte Abwanderungsgefahr und Kulturunterschiede – fließen hingegen nicht
unmittelbar als monetäre Messgröße in die Planrechnung ein und können somit auch
nicht simuliert werden. Unsystematische Risiken werden dadurch häufig nur mangelhaft
erfasst. Bisher versucht man dieses Problem mit Risikokomponentenansätzen zu lösen.
Bei diesen Methoden sind zur Ermittlung der Kapitalkosten Risikozuschläge zum risi-
kofreien Zins zu definieren, die zwar weitgehend subjektiv, dafür aber unter Einbezie-
hung unternehmensspezifischer, ideosynkratischer Risiken (Kundenstruktur, Prozesse,
etc.) erhoben werden.15
Häufig erfolgt die Schätzung der Eigenkapitalkosten unter An-
wendung von Scoring-Verfahren, indem unternehmensspezifische Risiken identifiziert
und anschließend einer subjektiven Bewertung durch Experten unterzogen werden.16
Diskutiert werden des Weiteren pauschale Zuschläge für eine geringe Größe (erhöhtes
Insolvenzrisiko) und für eine fehlende Börsennotierung (erhöhtes Wiederverkaufsrisi-
ko).17
Je nach Abschneiden wird das Zielunternehmen dann einer bestimmten Risikoklasse
zugeordnet, die wiederum einen bestimmten Risikozuschlag zum risikofreien Zins be-
wirkt.18
Bekannte Methoden sind die Verfahren der Boston Consulting Group (BCG)
und von Fuqua Industries.
15
Vgl. Henselmann, K./Kniest, W.: Unternehmensbewertung, S. 215.
16 Vgl. Pfister, C.: Kapitalkosten, S. 221.
17 Vgl. Gampenrieder, P./Behrendt, A.: UM 2004, S. 85-91.
18 Vgl. Rebien, A.: Kapitalkosten, S. 112.
11
Der Ansatz der Boston Consulting Group sieht sechs Hauptrisikofelder vor, welchen
nach einem umfangreich durchgeführten Review jeweils eine Ausprägung zwischen
1 (geringes Risiko) und 5 (sehr hohes Risiko) zuzuordnen ist. Durch die Kombinati-
on mehrerer Einzelkriterien kann so eine mehrdimensionale Risikobewertung
durchgeführt werden.19
Der Ansatz von Fuqua Industries sieht ein Kriterienraster mit 14 qualitativen Risi-
koelementen vor, denen Werte zwischen 1 (niedriges Risiko) und 5 (hohes Risiko)
zuzuordnen sind. Dabei handelt es sich um jene Risikoelemente, die aus Sicht des
Bewertenden für die Erfassung der Risikosituation eines Unternehmens bedeutend
sind.20
Beide Verfahren haben den Nachteil, dass die Schätzungen pauschal vorgenommen
werden. Sofern die Zusammenhänge der qualitativen Einflussgrößen nicht eindeutig
bekannt sind – bspw. durch vorliegende empirische Untersuchungen – lässt sich der
Risikozuschlag nur näherungsweise und weitgehend subjektiv bestimmen.21
Die Objektivität kann aber durch einen strukturierten Bewertungsprozess sowie durch
quantitative Belege für die qualitativen Kriterien gesteigert werden.22
Zudem verringert
eine strukturierte Darstellung aller Einflussgrößen die Gefahr, dass Risiken doppelt er-
fasst werden.23
Folglich ist ein qualitatives Bewertungsverfahren zu entwickeln, welches auch die Zu-
sammenhänge der Einflussfaktoren betrachtet und somit die vielfältigen Abhängigkeits-
beziehungen zwischen den einzelnen qualitativen Risiken berücksichtigt. Außerdem ist
es notwendig, die Zusammenhänge zwischen den Einflussfaktoren und den betroffenen
Größen des Planungsmodells darzustellen und in eine monetäre Bewertung zu überfüh-
ren. Um Subjektivität und die Doppelerfassung von Risiken zu vermeiden, ist ein um-
fassendes Wissensmanagement erforderlich. Ohne ein systematisches Wissensmanage-
ment kann keine stetige Weiterentwicklung und Anpassung des unscharfen Wissens in
Bezug auf eine Branche erfolgen, sodass für jeden Bewertungsvorgang – mit entspre-
19
Vgl. Faust, M.: Eigenkapitalkosten, S. 213.
20 Vgl. hierzu und im Folgenden ausführlich Bufka, J./Schiereck, D./Zinn, K.: ZfB 1999, S. 115-131.
21 Vgl. Henselmann, K./Kniest, W.: Unternehmensbewertung, S. 217.
22 Vgl. Behringer, S.: Unternehmensbewertung, S. 171.
23 Vgl. Henselmann, K.: Unternehmensrechnungen, S. 141.
12
chend großem Aufwand – die Informationen neu zu erheben sind. Damit wird zugleich
die Chance versäumt, über mehrere Bewertungsvorgänge hinweg ein stabiles und lern-
fähiges Netzwerk mit allen Risikofaktoren und deren Abhängigkeiten zu entwickeln,
dessen Informationen zentral hinterlegt und für mehrere Bewertungen genutzt werden
können.
Das zweite, Ende Dezember 2010 erscheinende Arbeitspapier „Valuation is fuzzy“ bie-
tet einen Lösungsvorschlag, welcher diese Anforderungen berücksichtigt (ein Auszug
hieraus wurde in leicht modifizierter Form veröffentlicht in: Controlling – Zeitschrift
für erfolgsorientierte Unternehmenssteuerung 2010, Heft 12, siehe Anhang 2). Durch
das Konzept gelingt es, mittels Rückgriffs auf ein wissensbasiertes System sowie einer
einfachen Softwarelösung qualitative Risikofaktoren, die auf eine Plangröße wirken, zu
identifizieren, entsprechende Zusammenhänge mit anderen Einflussgrößen aufzudecken
und anschließend mit Hilfe der sog. Fuzzy-Inferenz zu aggregieren.
wesentliche, auf die Planrechnung wirkenden qualitative Risiken
(aus Fuzzy Business Risk Model, abgeleitet aus Wissensbasis)
Due Diligence:
Bewertung (Fuzzyfizierung) und Aggregierung der relevanten qualitativen Risiken
zu einer unscharfen Risikomenge
hierfür: Befragung mehrerer Experten (modifizierte Delphi-Methode)/
Rückgriff auf die in der Wissensbasis gespeicherten Daten;
computergestützte Zusammenführung der Expertenmeinungen (Fuzzy-Inferenz)
computergestützte Defuzzyfizierung der aggregierten Expertenschätzungen(= Umrechnung der unscharfen Risikomenge in eine scharfe Wahrscheinlichkeitsverteilung)
Einbindung in die Monte-Carlo Simulation
wesentliche, auf die Planrechnung wirkenden qualitative Risiken
(aus Fuzzy Business Risk Model, abgeleitet aus Wissensbasis)
Due Diligence:
Bewertung (Fuzzyfizierung) und Aggregierung der relevanten qualitativen Risiken
zu einer unscharfen Risikomenge
hierfür: Befragung mehrerer Experten (modifizierte Delphi-Methode)/
Rückgriff auf die in der Wissensbasis gespeicherten Daten;
computergestützte Zusammenführung der Expertenmeinungen (Fuzzy-Inferenz)
computergestützte Defuzzyfizierung der aggregierten Expertenschätzungen(= Umrechnung der unscharfen Risikomenge in eine scharfe Wahrscheinlichkeitsverteilung)
Einbindung in die Monte-Carlo Simulation
Abb. 2: Prozessschritte zur Einbindung qualitativer Risiken in die Monte-Carlo Simulation
13
Abschließend wird eine Umrechnung des qualitativen Risikopotentials einer Plangröße
in eine quantifizierbare Verteilung vorgenommen und ins stochastische Planungsmodell
eingebettet. Anders als bei den oben aufgezeigten Ansätzen erfolgt in der finalen Ziel-
setzung zur Abbildung der systematischen und unsystematischen Risiken somit kein
Zuschlag zum risikofreien Zins, sondern eine Zurechnung zu den Zahlungsüberschüssen
im Planungsmodell. Gleichwohl können aus dem so entstehenden Risikoprofil (Zah-
lungsstromschwankungen zum Erwartungswert) periodenspezifische Kapitalkostenzu-
schläge abgeleitet werden.24
Aufbauend auf den allgemeinen Grundlagen wird hierfür zunächst ein Fuzzy Business
Risk Model zur Identifizierung der wesentlichen qualitativen Risiken entwickelt. An-
schließend wird aufgezeigt, wie ein wissensbasiertes System zur Identifikation und Be-
wertung dieser Erfolgsfaktoren im Rahmen des Due Diligence Reviews wesentlich bei-
tragen und mit der Fuzzy-Set Theorie verknüpft werden kann. Darauf aufbauend erfolgt
eine Erläuterung, auf welche Weise die aggregierten qualitativen Risikoinformationen
unter Rückgriff auf entsprechende Softwarelösungen in ein stochastisches Planungsmo-
dell zur Ableitung von Risikoprämien überführt werden können.
2.3 Leistungsbeurteilung der Software: „Add-In basierte
Softwaretools zur stochastischen Unternehmensbewertung?“
Die jüngsten technologischen Entwicklungen erlauben, dass komplexe stochastische
Modelle unter Rückgriff auf vertraute Tabellenkalkulationsprogramme erstellt und si-
muliert werden können. Preiswerte Softwaretools, die als Add-Ins zu bekannten
Spreadsheets geladen werden, bieten über die eigentliche Berechnung hinaus eine Viel-
zahl unterschiedlichster Features, um den Due Diligence Review und den stochastischen
Bewertungsprozess auf allen Stufen zu vereinfachen und die Ergebnisse anschaulich für
die weitere Risikoanalyse aufzubereiten. Des Weiteren müssen sich die Add-Ins dazu
eignen, die unter Kap. 2.1 und 2.2 vorgestellten theoretischen Konzepte in der Bewer-
tungspraxis verwirklichen zu können.
Zielsetzung des dritten, im Juli 2010 erschienenen Arbeitspapiers „Add-In basierte
Softwaretools zur stochastischen Unternehmensbewertung?“ ist es folglich, einen um-
24
Vgl. zur Risikozuschlags- und Sicherheitsäquivalentmethode Gleißner, W.: WPg 2010, S. 742.
14
fassenden Überblick zu geben, inwieweit die Monte-Carlo Simulation zur Unterneh-
mensbewertung rechnergestützt möglich ist (ungekürzt als zweiteiliger Beitrag veröf-
fentlicht in: Corporate Finance biz 2011, Heft 1 und Heft 2 sowie in Teilausschnitten
veröffentlicht in: Zeitschrift für Krisen-, Sanierungs- und Insolvenzberatung 2011, Heft
1, siehe Anhang 3). Hierzu wird – aufbauend auf einem theoretischen Konzept – die
Leistungsfähigkeit vier marktführender Softwaretools (@Risk, ModelRisk, Crystal Ball
und Risk Solver) näher untersucht.
Der Beitrag beschäftigt sich zunächst mit der Frage, welche Möglichkeiten die jeweili-
gen Programme bieten, um in der Due Diligence entdeckte Risiken im Planungsmodell
mit entsprechenden Verteilungen bzw. Eintrittswahrscheinlichkeiten zu hinterlegen.
Hierzu werden auch bewertungsspezifische Anforderungen an das Probability Manage-
ment vorgestellt und geprüft. Des Weiteren wird diskutiert, inwieweit es gelingt, Ab-
hängigkeitsbeziehungen zwischen den Risikovariablen des DCF-Modells zu berücksich-
tigen. Anschließend werden die Analysierbarkeit der aus der Simulation resultierenden
Ergebnisse sowie die Limitationen der Softwaretools aufgezeigt. Basierend auf dem
synoptischen Softwarevergleich wird abschließend die Frage beantwortet, welche Add-
Ins sich für die stochastische Unternehmensbewertung unter Kosten-/Nutzenaspekten
besonders gut eignen.
15
Literaturverzeichnis
Behringer, S. (Unternehmensbewertung): Unternehmensbewertung der Mittel- und
Kleinbetriebe – Betriebswirtschaftliche Verfahren, 4. Aufl., Berlin 2009
Bufka, J./Schiereck, D./Zinn, K.: Kapitalkostenbestimmung für diversifizierte Unter-
nehmen, in: ZfB 1999, S. 115-131
Faust, M. (Eigenkapitalkosten): Bestimmung der Eigenkapitalkosten im Rahmen der
wertorientierten Unternehmenssteuerung von Kreditinstituten, Marburg 2002
Fink, S. (Bewertungsprobleme): Bewertungsprobleme bei der Verschmelzung von Ge-
nossenschaften, Nürnberg 2008
Gampenrieder, P./Behrendt, A.: Zur Sinnhaftigkeit von Fungibilitätszuschlägen, in: UM
2004, S. 85-91
Gillenkirch, R. M./Thamm, R.: Fallstudie zur Unternehmensbewertung: Bewertung der
MiQuando-AG. Teil 2: Bewertung des Unternehmens und Risikosimulation, in:
WiSt 2008, S. 685-689
Gleißner, W. (Risikomanagement): Grundlagen des Risikomanagements im Unterneh-
men, München 2008
Gleißner, W./Kamaras, E./Wolfrum, M. (Beteiligungen): Simulationsbasierte Bewer-
tung von Akquisitionszielen und Beteiligungen, in: Gleißner, W./Schaller, A.
(Hrsg.): Private Equity. Beurteilungs- und Bewertungsverfahren von Kapitalgesell-
schaften, Weinheim 2008, S. 129-193
Gleißner, W./Wolfrum, M.: Simulationsbasierte Bewertung und Exit Preis-Schätzung
bei PE-Gesellschaften, in: M&A Review 2008, S. 343-350
Gleißner, W.: Unternehmenswert, Rating und Risiko, in: WPg 2010, S. 735-743
Guttenberger, S.: Die Berücksichtigung von realen Entscheidungssituationen bei der
Planung von Sachinvestitionen mit Hilfe eines regelbasierten Fuzzy-
Entscheidungsunterstützungssystems, in: ZP 1999, S. 283-305
Hendel, H. (Bewertung): Die Bewertung von Start-up Unternehmen im Rahmen von
Venture Capital Finanzierungen – Anwendungsmöglichkeiten der Realoptionstheo-
rie, Aachen 2003
16
Henselmann, K. (Unternehmensrechnungen): Unternehmensrechnungen und Unterneh-
menswert – Ein situativer Ansatz, Aachen 1999
Henselmann, K./Barth, T. (Empirie): Unternehmensbewertung in Deutschland – Empi-
rie zur Bewertungspraxis, Norderstedt 2009
Henselmann, K./Klein, M.: Methoden und Determinanten der Messung von Marktpreis-
risiken in deutschen Konzernunternehmen, in: Der Konzern 2010, S. 350-358
Henselmann, K./Klein, M./Fürst, B.: Marktpreisrisiko-Reporting bei Nichtfinanzinstitu-
ten nach IFRS 7 – Empirische Befunde zum Einsatz von Value at Risk und Sensiti-
vitätsanalysen bei kapitalmarktorientierten Unternehmen, in: CF biz 2010, S. 457-
476
Henselmann, K./Kniest, W. (Unternehmensbewertung): Unternehmensbewertung: Pra-
xisfälle mit Lösungen, 4. Aufl., Herne 2010
Jödicke, D.: Risikosimulation in der Unternehmensbewertung, in: FB 2007, S. 166-171
Kern, C./Mölls, S.: Ableitung CAPM-basierter Betafaktoren aus einer Peergroup-
Analyse, in: CF biz 2010, S. 440-448
Klein, M./Höfner, A.: Proaktives Risikomanagement im Mittelstand. Eine Option zur
frühzeitigen Ableitung von Krisen- und Insolvenzprognosen?, in: KSI 2011, S. 5-12
Momsen, B. (Wissensmanagement): Entscheidungsunterstützung im Wissensmanage-
ment durch Fuzzy regelbasierte Systeme, Göttingen 2006
Moser, U./Schieszl, S.: Unternehmenswertanalysen auf der Basis von Simulationsrech-
nungen am Beispiel eines Biotech-Unternehmens, in: FB 2001, S. 530-541
Pfister, C. (Kapitalkosten): Divisionale Kapitalkosten, Bern/Stuttgart/Wien 2003
Rebien, A. (Kapitalkosten): Kapitalkosten in der Unternehmensbewertung – Auswahl
und Einsatz von Ermittlungsmethoden zur sachgerechten Ableitung von Risikokos-
ten unter Berücksichtigung fundamentaler Faktoren, Aachen 2007
Reinhart, G./von Bredow, M.: Bewertung von Kunden-Lieferanten-Beziehungen in der
Automobilindustrie, in: ZWF 2008, S. 832-836
17
Steinmüller, H. (Waschautomaten): Fuzzy Control und NeuroFuzzy bei Waschautoma-
ten, in: Zimmermann, H.-J./von Altrock, C. (Hrsg.): Fuzzy Logic, Band 2. Anwen-
dungen, München 1995, S. 155-168
Sureth, C./Nordhoff, D.: Kritische Anmerkungen zur Ermittlung des tatsächlichen
Werts einer Familienpersonengesellschaft nach neuer Rechtslage, in: DB 2008,
S. 305-311
18
19
Abschnitt B
Hauptteil
20
21
Abschnitt B.1
Monte-Carlo Simulation und Due Diligence
Ein methodischer Ansatz zur computergestützten Aggregierung
von Wahrscheinlichkeitsverteilungen aus Expertenbefragungen
veröffentlicht als:
Working Paper in Accounting Valuation Auditing Nr. 2010-5
abrufbar unter: http://hdl.handle.net/10419/32770 (12.11.2010)
in leicht modifizierter Form veröffentlicht in:
M&A Review 2010, Heft 7, S. 358-366
Titel: „Monte-Carlo-Simulation in der Due Diligence“
(mit Klaus Henselmann, siehe Anhang 1)
22
23
Gliederung
1 Einleitung ................................................................................................................ 25
2 Monte-Carlo Simulation ......................................................................................... 25
2.1 Grundlagen ..................................................................................................... 25
2.2 Anforderungen an das einzusetzende Softwaretool ........................................ 27
3 Grundlegende Vorarbeiten ...................................................................................... 28
3.1 Planung der Due Diligence und Teamzusammenstellung .............................. 28
3.2 Erstellung eines Risikotableaus ...................................................................... 29
4 Ermittlung zugehöriger Verteilungstypen im Due Diligence Prozess .................... 31
4.1 Datenerhebungsvarianten ............................................................................... 31
4.2 Argumente für eine Expertenbefragung ......................................................... 32
4.3 Heranzuziehende Verteilungstypen ................................................................ 33
4.4 Erhebungsschritte ........................................................................................... 34
4.4.1 Risikoworkshop .................................................................................. 34
4.4.2 Modifizierung der Delphi-Methode ................................................... 36
4.4.3 Einzelinterviews ................................................................................. 37
4.4.4 Auswertung der Einzelinterviews ...................................................... 39
4.4.5 Rückkopplung .................................................................................... 39
4.4.6 Computergestützte Aggregation ......................................................... 39
5 Zusammenfassung................................................................................................... 44
Literaturverzeichnis ........................................................................................................ 45
24
25
1 Einleitung
Im Rahmen der klassischen Unternehmensbewertung - sei es nun für den Akquisitions-
oder für den Rechnungslegungsprozess (z. B. Beteiligungsbewertung) - werden mehr-
wertige Zukunftsszenarien frühzeitig zu einem kaum mehr nachvollziehbaren Erwar-
tungswert verdichtet oder finden allenfalls in einfachen Sensitivitätsanalysen Berück-
sichtigung. Dies liegt insbesondere darin begründet, dass die Schritte zur Ermittlung
notwendiger Verteilungen in den bisherigen Veröffentlichungen zur stochastischen Un-
ternehmensbewertung noch nicht näher problematisiert wurden.1 In der Bewertungspra-
xis sind diese Verteilungen im Regelfall aufgrund fehlender oder sehr instabiler histori-
scher Datenpunkte nur schwer ermittelbar bzw. nicht auf die Zukunft fortschreibbar.
Der folgende Beitrag beschäftigt sich daher mit der Frage, wie die Ermittlung und
Aggregierung von Verteilungen für die Monte-Carlo Simulation im gewöhnlichen Due
Diligence Prozess computergestützt berücksichtigt werden kann.
In Abschnitt 2 werden hierzu zunächst die Funktionsweise der Monte-Carlo Simulation
und die notwendigen Anforderungen an das einzusetzende Softwaretool aufgezeigt.
Anschließend wird ein Ansatz vorgestellt, wie die Verteilungen der wichtigsten Wert-
und Risikotreiber im Due Diligence Prozess computergestützt zu ermitteln sind. Der
Beitrag schließt mit einer Zusammenfassung und kurzen Würdigung der hier gewonne-
nen Erkenntnisse.
2 Monte-Carlo Simulation
2.1 Grundlagen
Eine mehrwertige Unternehmensbewertung kann wahlweise mit analytischen oder si-
mulationsbasierten Verfahren durchgeführt werden. Da jedoch eine mathematisch-
analytische Darstellung mit zunehmenden Umfang und Komplexität des Bewertungs-
modells sehr schnell zu erheblichen Schwierigkeiten bzw. Mehraufwendungen führt,
sind vorrangig die simulativen Vorgehensweisen, zu welcher die Monte-Carlo Simulati-
on zählt, für die betriebswirtschaftliche Bewertungspraxis von besonderem Interesse.
1 Vgl. bspw. Gillenkirch, R. M./Thamm, R.: WiSt 2008, S. 685-689; Gleißner, W./Wolfrum, M.:
MA&R 2008, S. 343-350; Jödicke, D.: FB 2007, S. 166-171; Moser, U./Schieszl, S.: FB 2001,
S. 530-541.
26
Abb. 1: Prozessschritte einer Monte-Carlo Simulation
Das Bewertungsverfahren auf Basis einer Monte-Carlo Simulation kann allgemein mit
folgenden Schritten beschrieben werden (vgl. Abb. 1):2
Suchen derjenigen mit Unsicherheit behafteten Inputgrößen X im Planungsmodell
(Business Risk Model), die einen entscheidenden Einfluss auf den Unternehmens-
wert aufweisen (bspw. Absatzmengen und Rohstoffpreise);
Schätzung der Wahrscheinlichkeitsverteilungen für die unsicheren Inputgrößen;
Erzeugung der Ergebnisverteilung durch multiple Berechnung der interessierenden
Zielgröße mit Hilfe simulationsbasierter Softwareprogramme;
2 Vgl. hierzu auch Bleuel, H. H.: Controlling 2006, S. 371-378; French, N./Gabrielli, L.: Journal of
Property Investment & Finance 2005, S. 76-89; Günther, T./Smirska, K./Siemann, F./Weber, S.: Con-
trolling 2009, S. 48-56.
Wahrscheinlichkeitsverteilungen der risikobehafteten Modellvariablen Xi
Erzeugung der Stichprobenwerte xij nach der
Monte-Carlo Methode für alle zu stochastisierenden
Modellvariablen Xi (z. B. DCF-Modell) im Simulationslauf j
Eingabe der erzeugten Stichprobenwerte xij in das Modell
Berechnung des j-ten Ergebnisstichprobenwertes (EDV-gestützt)
Wiederholung
der Simulations-
läufe j
X1 X2
…..
X3 Xn X4
27
Ableitung von Erwartungswert sowie statistischen Momenten höherer Ordnung
(Standardabweichung als zweiseitiges Risikomaß, Schiefe, Wölbung, etc.) zur Of-
fenlegung des aus der Übernahme resultierenden Chancen-/Risikoprofils.
Die nachfolgenden Ausführungen beschränken sich auf die Schätzung der Wahrschein-
lichkeitsverteilungen für die unsicheren Inputgrößen speziell im Due Diligence Prozess.
2.2 Anforderungen an das einzusetzende Softwaretool
Zur Durchführung der Simulationen ist am Markt eine zunehmende Anzahl von Soft-
warelösungen verfügbar. Neben teueren Komplettlösungen eignen sich für das hier vor-
gestellte Konzept auch einfache, kostengünstige Tools, die als Add-ins für gängige Ta-
bellenkalkulationsprogramme wie bspw. Microsoft Excel entwickelt wurden und daher
auch auf herkömmliche Planungsmodelle anwendbar sind. Bereits vorhandene und in
der Unternehmensbewertung bewährte Tabellenkalkulationen können somit weiterhin
genutzt werden.
Um jedoch Verteilungen, die von unterschiedlichen Mitgliedern des Due Diligence
Teams vorgeschlagen werden, zusammenführen zu können, muss das jeweilige Soft-
wareprogramm sowohl die in der Due Diligence vorgeschlagenen Verteilungen unter-
stützen als auch über ein solches „Aggregationsfeature“ verfügen.
Abb. 2 enthält eine Liste bekannter Softwareprogramme, die aufbauend auf einem gän-
gigen Tabellenkalkulationsprogramm deterministische Planungsmodelle mehrwertig
simulieren können. Alle Programme verfügen u. a. über die Möglichkeit, relevante
Wert- bzw. Risikotreiber mit unterschiedlichen Wahrscheinlichkeitsverteilungen zu
unterlegen.3
3 Ein detaillierter Softwarevergleich findet sich in der Arbeit von Klein, M.: Softwaretools.
28
Produktname Hersteller Website
@Risk 5.5 Palisade www.palisade.com
RiskSolver 9.5 Frontline Systems www.solver.com
Crystal Ball 11.1 Oracle www.oracle.com
ModelRisk 3.0 Vose Software www.vosesoftware.com
Abb. 2: Add-in basierte Softwaretools
Die jeweiligen Add-ins selbst weisen darüber hinaus unterschiedliche Features auf, um
die gewonnenen Ergebnisse bspw. auch entsprechend graphisch oder statistisch aufzu-
bereiten. Zur Aggregierung von im Due Diligence Prozess prognostizierten Verteilun-
gen eignen sich einige dieser Programme besonders gut.
Die Erhebung und computergestützte Kombinierung von Verteilungen ist ein wesentli-
cher Bestandteil der nachfolgend aufzuzeigenden Erweiterung des klassischen Due Di-
ligence Prozesses.
3 Grundlegende Vorarbeiten
3.1 Planung der Due Diligence und Teamzusammenstellung
Die Offenlegung der Unsicherheitsdimension in der Unternehmensbewertung erfordert
eine Vielzahl zu erfassender Daten, die das Chancen/ Risikoprofil des Unternehmens-
kaufs bestmöglich widerspiegeln sollten.
29
Abb. 3: Phasen der Due Diligence
(in Anlehnung an Kulhavy, H./Unzeitig, E.: UM 2004, S. 445.)
Das explizite Ziel des „klassischen“ Due Diligence Prozesses besteht darin, über den zu
erwerbenden Geschäftsbereich bzw. über das zu erwerbende Unternehmen möglichst
detaillierte Informationen hinsichtlich des Kaufgegenstands, der Werthaltigkeit, den
Risiken und dem Wertsteigerungspotenzial aus der Integration zu gewinnen, um hieraus
nach der Ergebnisauswertung einen dafür angemessenen Kaufpreis ableiten zu können
(vgl. Abb. 3).4
Bei der Zusammenstellung des Due Diligence Teams in Zusammenhang mit einer Mon-
te-Carlo Simulation ist zu beachten, dass zumindest der Teamleiter über grundlegende
Kenntnisse über das einzusetzende Softwareprogramm sowie über hinreichende statisti-
sche Zusammenhänge (z. B. Eigenschaften von Verteilungstypen) verfügen sollte. Nur
so kann bereits im Vorfeld der Simulation die Gefahr der Anwendung falscher Vertei-
lungstypen (sog. Meta-Risiken) vermieden werden.
3.2 Erstellung eines Risikotableaus
Nachdem die einzelnen Teams gebildet, aus den beschafften Informationsmaterialien
die Risikofelder gesichtet und die wichtigsten Risiken zugeordnet wurden, müssen die
wesentlichen bewertungsrelevanten Risiken, die simuliert werden sollen, in einem Risi-
koinventar zusammengefasst werden.
4 Vgl. Lucks, K./Meckl, R.: M&AR 2002, S. 498.
Impuls für
Unternehmens-
erwerb
Kontakt-
aufnahme
Letter of Intent/
Vertraulich-
keits-
vereinbarung
Kauf-
entscheidung/
Kaufpreisver-
handlung
Ergebnisaus-
wertung/
Due Diligence
Report
Informationsbe-
schaffung
Zusammenstel-
lung des Due
Diligence Teams
Planung der
Due Diligence
30
Risikotableau zur Erfassung des bewertungsrelevanten Risikoinventars N
r.
Tei
lber
eich
Bes
chre
ibun
g
Risikoklassifikation
(1)
Un
sich
erh
eits
-
gra
d
(2)
Wes
entl
ich
keit
Urs
ach
e
Inte
rdep
end
enze
n
zu a
nd
eren
Ris
iken
Ris
ikoa
rt
Ges
chäft
s-
ber
eich
Fun
ktio
n/
Ris
ikofe
ld
Ert
rag/
Au
fwa
nd
1 Market
Due
Diligence
Verlust
eines
Groß-
kunden
Fortführungs-
risiko
II
(Ziel-
unternehmen)
Vertrieb/
Marke-
ting
Umsatz-
erlöse;
Umsatz-
kosten
(1) mittel
bis hoch
(2) bedeu-
tendes
Risiko
enger
Kontakt
zu Alt-
eigen-
tümer
Nr. 5
2 .... .... .... .... .... .... .... .... ....
3
Abb. 4: Bewertungsrelevantes Risikoinventar
Je nach Branche und Zielunternehmen spielen dabei unterschiedliche Risiken eine stär-
kere oder weniger gewichtige Rolle, sodass die Entscheidung je nach Akquisitionssitua-
tion stets individuell getroffen werden muss. Wichtig ist dabei die Identifizierung jener
Hauptrisiken, die einen besonders starken Einfluss auf die Zahlungsströme und damit
auf die zu errechnende Unternehmenswertverteilung nehmen können.
Als erster Schritt empfiehlt es sich, wie beim klassischen Risikomanagementprozess, in
den für die Bewertung relevanten Risikofeldern (z. B. Vertrieb/Marketing, Beschaffung,
etc.) mittels Risikotableau entsprechende Risikoschwerpunkte zu setzen (1. Filter) und
diese auf die einzelne Teilbereiche bzw. Due Diligence Teams (z. B. Market Due Dili-
gence Team)5 zu verteilen (vgl. Abb. 4). Eine entscheidende Hilfe bieten hier bspw. die
in den Unternehmen vorhandenen Risikomanagement-Unterlagen, durchgeführte Kurz-
interviews mit den betroffenen Personen (Risikomanager, Controller, Geschäftsführung)
und ähnliches.
Sind die wichtigsten zu simulierenden Risiken identifiziert und auf die einzelnen Teams
verteilt, ist als nächster Schritt jeweils eine Relevanzbewertung hinsichtlich des Un-
sicherheitsgrads und der Wesentlichkeit durchzuführen (2. Filter). Insbesondere sind zur
Darstellung der Ursachen und Bedeutung einzelner Risiken ausreichende Branchen-
kenntnisse und eine langjährige Berufserfahrung von besonderem Vorteil, was ebenfalls
5 Vgl. zu den Aufgaben der einzelnen Due Diligence Teams auch Helbling, C.: Due Diligence Review,
S. 236-238.
31
bei der Besetzung des Due Diligence Teams durch entsprechende Experten zu berück-
sichtigen ist.
Als dritter und letzter Schritt erfolgt schließlich eine eingehende Detailanalyse der
wichtigsten Risiken. Im Mittelpunkt stehen die Herausarbeitung von Szenarien und die
Erarbeitung von monetären Ursache-Wirkungs-Beziehungen samt Feststellung etwaiger
Risikointerdependenzen innerhalb des Planungsmodells. Dadurch gelingt es auch, zu-
sätzliche - bisher nicht in den Geschäftsbereichen bzw. Unternehmen dokumentierten -
Chancen und Risiken zu identifizieren, die bspw. primär aus der Akquisition entstehen.6
Als Ergebnis erhält man jene Risiko- und Werttreiber, für die im weiteren Due Diligen-
ce Prozess entsprechende Risikoquantifizierungen und -aggregationen vorzunehmen
sind.
Da die Monte-Carlo Simulation kein eigenes Bewertungsverfahren darstellt, sondern im
Regelfall auf einem deterministischen DCF-Bewertungsmodell aufbaut, sind die Teil-
gebiete der „klassischen“ Due Diligence also zunächst auch bei den simulativen Bewer-
tungskonzepten zwingend durchzuführen.
Eine wichtige Frage liegt bei der Monte-Carlo Simulation darin, welche Verteilungsty-
pen und Korrelationskoeffizienten zur Bestimmung des bewertungsrelevanten Integrati-
onsrisikos und deren Verarbeitung im Planungsmodell herangezogen werden sollten. Im
Folgenden beschränkt sich die Darstellung auf die Ermittlung notwendiger Verteilun-
gen. Hinsichtlich der Berücksichtigung von Korrelationen kann jedoch ein ähnliches
Konzept Anwendung finden.7
4 Ermittlung zugehöriger Verteilungstypen im Due Diligence
Prozess
4.1 Datenerhebungsvarianten
Zur Festlegung, welcher Verteilung eine Zufallsvariable im Bewertungsmodell zur Be-
stimmung der Akquisitionsrisiken folgen sollte, stehen im Due Diligence Prozess
grundsätzlich drei verschiedene Vorgehensweisen zur Verfügung. Dabei ist ein entspre-
6 Vgl. Strauch, J.: Due Diligence, S. 128-129.
7 Vgl. hierzu bspw. Klein, M.: Softwaretools.
32
chender Trade off zwischen einem zunehmenden Zukunftsbezug einerseits und einem
abnehmenden Unternehmensbezug andererseits zu berücksichtigen (vgl. Abb. 5).
Abb. 5: Möglichkeiten zur Bestimmung von Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen lassen sich erstens aus der Analyse vergangener Daten
ableiten, woraus wiederum die jeweiligen Verteilungen der Zukunft bestimmt werden
können. Die zweite - bewertungstechnisch weit wichtigere - Variante stellt die Generie-
rung der Verteilungsfunktionen auf Grundlage von Expertenmeinungen, insbesondere
den Mitgliedern des Due Diligence Teams, dar. Eng verwandt ist drittens die Ergänzung
dieser auf Expertenmeinung bezogenen Daten mittels einer Konkurrenz- bzw. Umwelt-
analyse.8
4.2 Argumente für eine Expertenbefragung
Der Bestimmung der Verteilungen auf Grundlage von Expertenbefragungen kommt im
Rahmen der simulativen Unternehmensbewertung ein besonders hoher Stellenwert zu.
Gerade bei zu akquirierenden kleinen und mittleren Unternehmen (KMU), die über kein
ausreichendes strategisches und operatives Controlling bzw. über keine entsprechende
Risikomanagementabteilung verfügen,9
wurden die in der Simulation benötigten internen Daten in der Vergangenheit nie
gesammelt;
standen und stehen die Kosten für die Datenbeschaffung in keinem angemessenen
Kosten/Nutzenverhältnis zur Zweckerfüllung der Bewertungsabsicht;
8 Vgl. hierzu bspw. Henselmann, K.: BFuP 2005, S. 296-305.
9 In Anlehnung an Klein, R./Scholl, A.: Planung, S. 302.
Wahrscheinlichkeitsverteilung
Empirische Daten des
Zielunternehmens
Expertenmeinung (Investmentbanker, M&A Experten,
Due Diligence Team)
Konkurrenz-, Branchen- und
Umweltanalysen (z. B. Risiko-/Prognosebericht,
Konjunkturdaten, ifo-Index)
Trade off: zunehmender Zukunftsbezug/abnehmender Unternehmensbezug
33
sind in der Vergangenheit erfasste Daten häufig für die Zukunft nicht mehr
prognoserelevant (bspw. durch Veränderung der strategischen Wettbewerbspositio-
nen, der globalen und branchenbezogenen Umwelt, etc.);
sind die vorliegenden Daten meist lückenhaft, unzureichend und nur von qualitativer
Natur;
ist das zu bewertende Unternehmensmodell oftmals neu- bzw. einzigartig;
sind die benötigten Prognosezeiträume ggf. sehr langfristig, die interne Planung
- wenn überhaupt - hingegen eher kurz- bis mittelfristig ausgerichtet.
Aufgrund dieser Ursachen muss die Ermittlung der entsprechenden Verteilungen anstel-
le historischer Daten auf der persönlichen Erfahrung und der Intuition der Experten ba-
sieren.10
Dies trifft insbesondere auch auf die bewertungsrelevanten Übernahmerisiken
zu.
Sind die Kenntnisse in den KMU diesbezüglich (noch) als relativ schwach einzuschät-
zen, verfügt das Due Diligence Team bei einer entsprechenden Zusammenstellung im
Regelfall über diese branchen- und umweltspezifischen Erfahrungen. Die Ableitung der
Verteilungstypen aus der Befragung der Mitglieder des Due Diligence Teams wird
nachfolgend als „modifizierte Delphi-Methode“ bezeichnet.
4.3 Heranzuziehende Verteilungstypen
Im Rahmen des stochastischen Bewertungsprozesses empfiehlt es sich, zur Ermittlung
des Übernahmerisikos ausschließlich auf leicht interpretierbare Wahrscheinlichkeits-
und Dichtefunktionen zurückzugreifen. Diese sollten zudem flexibel und leicht durch
den jeweiligen Experten anzupassen sein. Damit scheiden bereits jene Verteilungstypen
aus, deren Parameter keine unmittelbare Verbindung zu der Verteilungsform besitzen,
da sich diese nur schwer an die Vorstellungen der jeweiligen Mitglieder des Due Dili-
gence Teams anpassen lassen.11
Ideale Verteilungsformen sind im Rahmen von Expertenbefragungen insbesondere die
diskreten (Poissonverteilung, Binomialverteilung) sowie die einfach nachvollziehbaren
10
Vgl. Mootz, C.: Risikoanalyse, S. 126.
11 Vgl. Hildenbrand, K.-H.: Systemanalyse, S. 160.
34
parametrischen Verteilungstypen (Dreiecksverteilung, Gleichverteilung und PERT-
Verteilung).12
Bei letzteren lässt sich - trotz des subjektiven Einflusses - die Bewertung
relativ einfach rekonstruieren, da maximal eine Zwei- bzw. Dreipunktschätzung ver-
langt wird.13
Ausgehend vom Risikoinventar (vgl. Abschnitt 3.2) sind zur Ermittlung geeigneter Ver-
teilungen im Due Diligence Prozess mehrere Schritte durchzuführen, die nachfolgend
kurz dargestellt werden.
4.4 Erhebungsschritte
4.4.1 Risikoworkshop
Aufbauend für alle Teilbereiche der Due Diligence, in denen die Hauptrisiken identifi-
ziert wurden, sind zunächst sog. „Risikoworkshops“ durchzuführen. Die Mitglieder der
jeweiligen Workshops sind wiederum mit den jeweiligen Fachleuten des „klassischen“
Due Diligence Teams zu besetzen. Als Moderator der jeweiligen Workshops bietet sich
der jeweilige Teamleiter eines Zuständigkeitsbereiches an:
Hauptrisiken aus
Risikoinventar Zuständigkeitsbereich Workshop Teammitglieder
Portfoliorisiko Strategic
Due Diligence Team Workshop „Strategie“
Strategieberater, externe
Berater, Mitarbeiter des strategischen Controllings Trendchance
Großkundenrisiko
Commercial/Market Due
Diligence Team
Workshop „Operatives
Geschäft“
Controller, Disponenten;
Marktstrategen
Vertriebsprozessrisiko
Rohstoffpreisrisiko
Markteintritt/-austritt
Zinsrisiko
Financial Due Diligence Team
Workshop „Finanzen“ Finanzexperten (Corporate Finance), externe Berater
Währungsrisiko
Liquiditätsrisiko
Produkthaftungsrisiko Legal Due Diligence Team Workshop „Recht“ Juristen, externe Berater
Umweltrisiko
Abb. 6: Workshopbildung zur Verteilungsherleitung im Due Diligence Prozess
12
Zu den Eigenschaften möglicher Verteilungen vgl. bspw. Hauwermeiren, M./Vose, D.: Distributions,
S. 23-161.
13 Vgl. Madlener, R./Siegers, L./Bendig, S.: ZfE 2009, S. 143.
35
Aufgabe der jeweiligen Workshops ist zunächst, die Auswirkungen der jeweiligen Risi-
ken auf die verschiedenen Stellen des deterministischen Bewertungsmodells, ggf. auch
unter Berücksichtigung von Korrelationen, nochmals aufzuzeigen und untereinander zu
diskutieren. Dies gibt zugleich allen Beteiligten die Möglichkeit, sich aktiv und mit ei-
genen Ideen ins Bewertungsmodell einzubringen. Dadurch wird gewährleistet, dass al-
len Teammitgliedern die gleichen Informationen und die gleiche Wahrnehmung über
die Chancen- und Risikosituation des zu bewertenden Unternehmens vermittelt werden.
Ergebnis des jeweiligen Workshops ist dann die endgültige Entwicklung und Validie-
rung einer stochastischen Variablenstruktur, ohne dabei die entsprechenden Variablen
bereits stochastisch quantifiziert zu haben.14
Um diese Zielsetzung zu gewährleisten,
kommt den jeweiligen Teamleitern der verschiedenen Workshops eine hohe Bedeutung
zu.15
Der jeweilige Teamleiter
muss alle wichtigen Informationen über die Chancen und Risiken, die im Risikoin-
ventar identifiziert wurden und nun zu diskutieren sind, vor dem eigentlichen Work-
shop allen Teammitgliedern in verständlicher und graphisch aufbereiteter Weise zu-
kommen lassen. Insbesondere ist die vorläufige deterministische und stochastische
Variablenstruktur des Bewertungsmodells darzustellen;
hat darüber hinaus auch, soweit vorhanden, Zeitreihen (empirische Datensample)
über die Entwicklung der entsprechenden Variablen des Bewertungsmodells in der
Vergangenheit sowie die Zukunft betreffende Studien bereitzustellen (z. B. prognos-
tizierte Inflationsentwicklungen der Wirtschaftsinstitute, Wechselkursprognosen des
Euros, Konjunkturindex, Branchenentwicklung, etc.);
muss des Weiteren alle Mitglieder des jeweiligen Due Diligence Teams in die De-
batte einbinden und die Diskussion ziel- und problemorientiert vorantreiben. Hierbei
dürfen weder Ergebnisse vorweggenommen, noch eventuelle Widersprüche in den
verschiedenen Aussagen aufgedeckt werden;
14
Ein ähnliches Vorgehen schlagen Adam und Mootz im Rahmen von allgemeinen Investitionsent-
scheidungsprozessen vor; vgl. Adam, D.: Planung, S. 39; Mootz, C.: Risikoanalyse, S. 131-132.
15 Vgl. hierzu auch Kegel, K. P.: Risikoanalyse, S. 251; Scholl, A.: Befragung, S. 120.
36
hat dafür Sorge zu tragen, dass die Diskussion über die Risikosituation der Variab-
len, ihrer Struktur und möglichen Korrelationen zu anderen Bereichen der Due Dili-
gence (und damit auch zu anderen Risikoworkshops) im Mittelpunkt steht.
Nach Beendigung der Sitzung ist zeitnah eine Mitteilung an die Teilnehmer des Work-
shops zu versenden. Diese enthält dann die ausgearbeitete, vorläufige Variablenstruktur
des Bewertungsmodells.
4.4.2 Modifizierung der Delphi-Methode
Anders als bei klassischen Workshops, bei denen zur gemeinsamen Entscheidungsfin-
dung häufig die sog. Delphi Methode herangezogen wird, ist im Workshop allerdings
nach keinem gemeinsamen Konsens, d. h. nicht unmittelbar nach einer gemeinsam ab-
geleiteten Verteilungsform mit entsprechender Beschreibung der Parameter, zu stre-
ben.16
Damit würde nämlich eine wichtige Funktion des Workshops verloren gehen.
Der gemeinsame Konsens birgt stets die Gefahr, nicht alle Umweltzustände bzw. Band-
breiten, die auf den Unternehmenswert einwirken könnten, adäquat zu erfassen. Darüber
hinaus können Macht- und Statusunterschiede innerhalb des Teams dazu führen, dass
die Meinung der dominierenden oder der am meisten geschätzten Persönlichkeit ange-
nommen wird. Ob dies dann zu einer besseren Schätzung führt, bleibt anzuzweifeln.
Abb. 7: Ablauf der Expertenschätzungen im Due Diligence Prozess
16
Vgl. Eisenführ, F./Weber, M.: Entscheiden, S. 312.
Hauptrisiken laut Risikoinventar
(Strategic Due Dili-
gence)
Workshop im Strategic
Due Diligence
Team
Einzelinterview mit
jedem Teammitglied
des Workshops
Auswertung und
Aggregation der
Einzelinterviews
Rückkopplung bei erheblichen Abweichungen in den Einzelinterviews
Hauptrisiken laut
Risikoinventar (Legal Due
Diligence)
Auswertung und
Aggregation der Einzelinterviews
Einzelinterview mit
jedem Teammitglied des
Workshops
Workshop im Legal
Due Diligence
Team
Rückkopplung bei erheblichen Abweichungen in den Einzelinterviews
37
Des Weiteren besteht bei Workshops generell die Gefahr des sog. „Groupthink“. Hie-
runter versteht man das Bedürfnis einer Gruppe, schnell zu einem gemeinsamen Kon-
sens kommen zu wollen. Vorschnelle Entscheidungen und nicht ausreichend reflektierte
Problemstellungen wären die Folgen, was sich wiederum nachteilig auf das stochasti-
sche Modell auswirken könnte.17
4.4.3 Einzelinterviews
Nach Beendigung der jeweiligen Workshops und Sichtung der ausgearbeiteten Unterla-
gen ist mit den einzelnen Workshop-Teilnehmern ex-post durch den Moderator des je-
weiligen Due Diligence Teams ein Einzelinterview zu führen. Hierbei wird den Team-
mitgliedern die Gelegenheit gegeben, Vorschläge zu machen, wie die Verteilungstypen
der einzelnen Variablen des Bewertungsmodells, die im Workshop zur Stochastisierung
übereinstimmend vorgeschlagen wurden, konkret ausgestaltet sein sollten. Anonyme
Einzelinterviews eignen sich im Gegensatz zum Workshop besonders gut dazu, ohne
negative Gruppeneffekte und ohne Gruppendruck in Ruhe über die Quantifizierung der
festgelegten Modellvariablen entscheiden zu können.18
In der investitionstheoretischen
Literatur werden als gängige Vorgehensweise dabei das (Drei-) Punktschätzverfahren,
die Intervalltechnik sowie die diskrete Schätzung diskutiert.19
Das sog. Dreipunktschätzverfahren eignet sich für diejenigen Variablen im Bewer-
tungsmodell, die mit leicht nachvollziehbaren, stetigen bzw. quasi-stetigen Verteilungs-
typen zu unterlegen sind. Die einzelnen Teammitglieder jeder Due Diligence Einheit
werden hierbei vom Teamleiter nach dem minimal möglichen, dem wahrscheinlichsten
(Modus) sowie dem maximal möglichen Wert befragt. Hieraus können dann die ent-
sprechenden Dreiecks- oder PERT-Verteilungen abgeleitet werden. Ergänzend besteht
die Möglichkeit, dass den Unter- und Obergrenzen auch Wahrscheinlichkeiten zugeord-
net werden. Das Teammitglied hat dann zusätzlich die Möglichkeit Informationen dazu
zu liefern, mit welcher Wahrscheinlichkeit die Unter- und/oder Obergrenze der Vertei-
lung nicht unter- bzw. überschritten wird.
17
Vgl. Vose, D.: Risk Analysis, S. 393-422.
18 Vgl. Kegel, K. P.: Risikoanalyse, S. 239.
19 Vgl. hierzu Keefer, D. L./Bodily, S. E.: Management Science 1983, S. 595.
38
Abb. 8: Möglichkeiten zur Quantifizierung von Wahrscheinlichkeiten
Bei der Intervalltechnik liegt der Vorteil darin, dass das jeweilige Teammitglied nicht
auf vorgegebene Verteilungen beschränkt ist. Ausgangspunkt des Verfahrens bildet die
Vorgabe eines Gesamtintervalls innerhalb dessen eine zu stochastisierende Variable des
Bewertungsmodells liegt. Dieses Intervall ist anschließend in entsprechende Teilinter-
valle zu zerlegen. Für jedes Teilintervall ist des Weiteren eine Eintrittswahrscheinlich-
keit p anzugeben, wobei die Summe der Wahrscheinlichkeiten aller Intervalle gleich
eins ergeben muss.
Mittels Division der Wahrscheinlichkeit der einzelnen Teilklassen durch deren Breite
kann dann die Dichtefunktion in Form eines Histogramms berechnet werden. Jeder
Wert innerhalb eines Teilintervalls tritt mit gleicher Wahrscheinlichkeit ein, sodass man
quasi von einer „gestückelten Gleichverteilung“ sprechen kann. Da die Intervalltechnik
dem jeweiligen Teammitglied eine weitergehende Wahrscheinlichkeitsinformation als
das Dreipunktschätzverfahren abverlangt, sollte sie nur in denjenigen Fällen Anwen-
dung finden, wenn diese Informationen auch tatsächlich durch den Bewertenden abruf-
bar sind.
Bei der diskreten Schätzung werden die Mitglieder des jeweiligen Workshops direkt
nach Wahrscheinlichkeiten der möglichen Einzelereignisse gefragt. Eine Einteilung in
Intervalle ist nicht nötig. Diskrete Schätzungen sind immer dann durchzuführen, wenn
sich die wesentlichen bewertungsrelevanten Chancen- und Risikofaktoren, die auf das
Modell einwirken, nicht in stetige oder quasi-stetige Verteilungen transformieren lassen.
In der Bewertungspraxis erfolgt dies - wie bereits beschrieben - regelmäßig durch die
Modellierung von Binomial- und Poissonverteilungen in Zusammenhang mit ereignis-
orientierten Risiken (strategische Risiken, operationelle Risiken).
Quantifizierungstechniken im Einzelinterview
Dreipunktschätzverfahren diskrete Schätzung Intervalltechnik
39
4.4.4 Auswertung der Einzelinterviews
Nach Beendigung der Einzelinterviews haben die jeweiligen Teamleiter die jeweils ab-
gegebenen Einschätzungen auszuwerten. Überall dort, wo einzelne Teammitglieder - im
Gegensatz zur Mehrheit - zu grob unterschiedlichen Verteilungsannahmen kommen,
muss die persönliche Chancen-/Risikobeurteilung dieses Mitglieds nochmals mit dem
Workshopleiter reflektiert werden. Hierin müssen die angenommenen Wahrscheinlich-
keitsverteilungen bzw. deren Ausprägungen detailliert begründet werden. Durch den
Erläuterungszwang wird gleichzeitig eine Präventivwirkung erreicht, da hier eventuell
vorhandene Inkompetenzen einzelner Teammitglieder aufgedeckt werden können.20
4.4.5 Rückkopplung
Sofern die erhebliche Abweichung weiterhin glaubwürdig begründet werden kann, emp-
fiehlt es sich, alle Experten des jeweiligen Teams nochmals über den Sachverhalt bera-
ten zu lassen und die Quantifizierung gegebenenfalls in erneuten Einzelinterviews
nochmals durchzuführen (Rückkopplung). Dies gilt insbesondere überall dort, wo be-
sonders sensible Chancen und Risiken diskutiert werden, die einen erheblichen Einfluss
auf die Zahlungsströme des zu bewertenden Unternehmens haben könnten. Dabei soll
jedoch keinesfalls ein Konsens erzielt, als vielmehr die strittigen Variablen, die zu
stochastisieren sind, nochmals eingehend beleuchtet werden.21
Im Fall von nicht sorg-
fältig erhobenen oder auf bloßen Zufallsergebnissen beruhenden Eingaben führt auch
die Simulation zu einem nicht gehaltvollen Ergebnis und folglich zu einer nicht robus-
ten Unternehmensbewertung.
4.4.6 Computergestützte Aggregation
Aus der modifizierten Delphi-Methode resultiert konsequenterweise, dass innerhalb der
jeweiligen Due Diligence Teams kein Konsens hinsichtlich der zu stochastisierenden
Inputvariablen des Bewertungsmodells vorliegt.
20
Vgl. hierzu bereits Moxter, A.: ZfbF 1980, S. 459.
21 Vgl. Mootz, C.: Risikoanalyse, S. 132.
40
Abb. 9: Vereinigung mehrerer Verteilungen
Um nun die im Workshop erarbeitete vorläufige Variablenstruktur in eine endgültige
Variablenstruktur überführen zu können, müssen die verschiedenen Experteneinschät-
zungen, die ggf. zu völlig unterschiedlichen Verteilungen führen, innerhalb der einzel-
nen Teams noch aggregiert werden.22
Ein Vorteil dieser Zusammenführung liegt darin, dass nicht nur die unterschiedlichsten
Verteilungstypen vereint, sondern den einzelnen Expertenmeinungen auch unterschied-
lich hohe Gewichte beigemessen werden können. Inwiefern die Gewichtung letztlich
vorgenommen werden sollte, hängt entscheidend davon ab, über welche Erfahrung das
jeweilige Teammitglied über den zu beurteilenden Sachverhalt verfügt. Dem Erfah-
rungsschatz von in die Bewertung involvierten externen Unternehmensberatern mit
langjähriger Berufserfahrung ist bspw. bei der Abschätzung des strategischen (Akquisi-
tions-) Risikos ein relativ hohes Gewicht beizumessen.
22
Auf die reine Gewichtung bzw. Durchschnittsbildung von Expertenmeinung ist hingegen zu verzich-
ten, da hieraus unrealistische Verzerrungen und Verschiebungen resultieren können, die neben feh-
lerhaften Ergebnissen auch zur Verletzung des zentralen Grenzwerttheorems führen. Die reine Ge-
wichtung führt ggf. zu überlagerten Ereignissen, die realiter nicht existieren bzw. so nicht mit den
abgegebenen Expertenschätzungen übereinstimmen. Vgl. hierzu ausführlich Clemen, R./Winkler, R.:
Risk Analysis 1999, S. 187-203; Mootz, C.: Risikoanalyse, S. 140-143.
Eintritts-
wahrscheinlichkeit
(Gleichverteilung)
monetäre
Auswirkung
(Normalverteilung)
Teammitglied 1
kombinierte
Verteilung
(VT1)
Teammitglied 2
kombinierte
Verteilung
(VT2)
gewichtet mit 0,6
gewichtet mit 0,3
Risikoworkshop
kombinierte,
aggregierte
Verteilung für Risiko
1
Commercial
Due Diligence
Team
Com
mercia
l Du
e Dilig
ence T
eam
Teammitglied 3
kombinierte
Verteilung
(VT3)
gewichtet mit 0,1
Eintritts-
wahrscheinlichkeit (Gleichverteilung)
monetäre
Auswirkung
(Dreiecksverteilung)
Eintritts-
wahrscheinlichkeit
(Gleichverteilung)
monetäre Auswirkung (gestückelte
Gleichverteilung)
Risiko 1 laut Risikoinventar
41
Des Weiteren ist auch grundsätzlich möglich, primär vergangenheitsorientierte, empiri-
sche Datensample mit zukunftsgerichteten Expertenmeinungen zu kombinieren, indem
durch die Verknüpfung die aus empirisch erhobenen Daten resultierende Verteilung mit
der aggregierten Workshopverteilung kombiniert wird. Hierbei kann auch der Trade-off
zwischen dem Zukunftsbezug einerseits und der Unternehmensspezifität andererseits
gemildert werden (vgl. Abschnitt 4.1). Mit der Aggregation der einzelnen Verteilungen
wird die vorläufige im Workshop festgelegte Variablenstruktur so durch die endgültige
Variablenstruktur ersetzt.
Das gewichtete Zusammenführen mehrerer Verteilungen wird von den in Abschnitt 2.2
vorgestellten Software Packages derzeit lediglich durch ModelRisk (Version 3.0) direkt
ermöglicht. Abb. 10 zeigt das entsprechende Vorgehen, wobei Experte A als Vertei-
lungstyp eine PERT-Verteilung, Experte B eine (modifizierte) PERT-Verteilung vorge-
schlagen hat. Die Gewichtung der Verteilung beträgt 1/3 (Experte A) bzw. 2/3 (Experte
B). Hieraus resultiert die im unteren Bild dargestellte gewichtete Verteilung der beiden
Experten.
Abb. 10: Gewichtetes Zusammenführen von Verteilungen im Due Diligence Prozess (ModelRisk 3.0)
Bei @Risk, ModelRisk und RiskSolver können mit den benutzerdefinierten Verteilungs-
typen VoseDiscrete, RiskDiscrete und PsiDiscrete auf stetigen Verteilungen (z.B.
42
PERT-Verteilung) aufbauende, gewichtete diskrete Verteilungen indirekt generiert und
für das Bewertungsmodell genutzt werden. So kann in Zelle A1 des Spreadsheet-
Modells bspw. eine PERT-Verteilung von Experte A (Minimum 120; Modus 140; Ma-
ximum 220), in Zelle A2 eine PERT-Verteilung von Experte B (Minimum 155; Modus
180; Maximum 220) des Due Diligence Teams zur Abschätzung des Personalaufwands
in Planperiode 1 hinterlegt werden. In Zelle B1 wird wiederum die Wahrscheinlichkeit
des Eintreffens des Experten A hinterlegt (z.B. 33,3% wegen der geringeren Erfahrung),
in Zelle B2 die des Experten 2 (66,7%). Im Spreadsheetmodell wird dann bspw. bei
RiskSolver für den Personalaufwand der Periode 1 die Zellformel
=PsiDiscrete(A1:A2;B1:B2)
generiert und in die Excel-Spreadsheetzelle „Personalaufwand der Periode 1“ integriert.
So ergeben sich im Rahmen der Simulation hinreichend viele Zufallszahlen, wobei die
Eintrittswahrscheinlichkeit des Experten B höher ist als die des Experten A (vgl.
Abb. 11).
Abb. 11: Indirekt gewichtete Expertenverteilung (RiskSolver 9.5)
Bei Crystal Ball können „kombinierte Verteilungen“ über die benutzerdefinierte Vertei-
lung „Custom Distribution“ erzeugt werden. Eine Gewichtung ist allerdings nicht mög-
lich.
Ggf. ist auch eine mehrfache Zusammenführung von Verteilungen nötig, da die Exper-
ten zunächst nach der Eintrittswahrscheinlichkeit einer Chance bzw. eines Risikos und
43
dann nach deren Eintrittshöhe (monetäre Auswirkung) befragt werden. Diese Verknüp-
fungsnotwendigkeit tritt insbesondere bei der Integration sog. ereignisorientierter Risi-
ken auf.23
Bei verteilungsorientierten Risiken (Umsatzschwankungen, Marktpreis-
schwankungen) ist eine solche vorangehende Verknüpfung im Regelfall nicht notwen-
dig.
Durch die Zusammenführung kann bspw. die Eintrittswahrscheinlichkeit eines bewer-
tungsrelevanten Risikos durch das erste Teammitglied mit ausgeprägten Wettbewerbs-
kenntnissen als gleichverteilt (z. B. Marktaustritt bzw. -eintritt eines Wettbewerbers als
ereignisorientiertes Risiko), die daraus resultierende monetäre Auswirkung (z. B. zu-
sätzliche/geringere Absatzmenge) hingegen als normalverteilt aufgefasst werden
(vgl. Abb. 9).
Teammitglied 2 könnte sich bspw. mit einer Dreipunktschätzung dahingehend äußern,
dass bei Eintritt zusätzlicher Wettbewerber die determinierte Absatzmenge am wahr-
scheinlichsten um 5%, nicht aber um mehr als 10% und mindestens um 3% sinkt (Drei-
ecksverteilung). Das dritte Teammitglied könnte hinsichtlich der monetären Auswir-
kung wiederum eine gestückelte Gleichverteilung schätzen (Absatzmenge sinkt um 3-
5% (p=0,2), 6-8% (p=0,7) bzw. 9-11% (p=0,1)) aus der eine entsprechende Dichtefunk-
tion resultiert. Ebenso können beide Teammitglieder auch eine Eintrittswahrscheinlich-
keit schätzen, deren Verteilungen wiederum voneinander abweichen können.
Das „richtige“ Aggregieren von Verteilungen nach Eintrittswahrscheinlichkeit und Ein-
trittshöhe wird derzeit lediglich durch @Risk und ModelRisk unterstützt. Bei den beiden
anderen Anbietern (Crystal Ball, RiskSolver) müssen Eintrittswahrscheinlichkeit und
Eintrittshöhe über eine entsprechende Zellformel multipliziert werden, was zu fehlerhaf-
ten Ergebnissen führt. Bei einer gezogenen Eintrittshäufigkeit von bspw. 10 Ereignissen
und einer gezogenen Eintrittshöhe (Schadenshöhe) von bspw. 2.000 € wird unterstellt,
dass bei allen 10 Ereignissen stets ein Schaden in Höhe von 2.000 € auftritt. In Wirk-
lichkeit werden diese 10 Ereignisse aber unterschiedliche quantitative Auswirkungen
nach sich ziehen.
23
Vgl. Füser, K./Rödel, K./Kang, D.: FB 2002, S. 501.
44
5 Zusammenfassung
Die vorgenannten Ausführungen zeigen, dass die Generierung von aggregierten Vertei-
lungen im Rahmen des Due Diligence Prozesses mit einfachen Mitteln möglich ist.
Durch leicht bedienbare und kostengünstige Softwaretools, die als Add-ins zu gängigen
Tabellenkalkulationsprogrammen wie Microsoft Excel fungieren und über geeignete
Features verfügen, können mehrwertig prognostizierte Szenarien verschiedener Mitglie-
der der jeweiligen Due Diligence computergestützt aufbereitet, aggregiert und in das
deterministische Planungsmodell zur Stochastisierung überführt werden. Umfangreiche
Zusatzarbeiten im Vergleich zur klassischen Due Diligence fallen dabei nicht an, da
bereits bei der deterministischen Bewertung eine konkrete Auseinandersetzung mit den
Hauptrisiken des Bewertungsobjektes erfolgen sollte.
Durch die vorgestellte modifizierte Delphi-Methode wird gewährleistet, dass die wich-
tigsten Wert- und Risikotreiber von unterschiedlich erfahrenen Experten identifiziert,
mehrwertig prognostiziert und einschlägig diskutiert werden können. Im Endeffekt ge-
lingt es so, computergestützt eine Unternehmenswertverteilung und damit auch eine
Chancen- und Risikostruktur des Bewertungsobjekts zu generieren, welche auf den dis-
kutierten Einschätzungen und aggregierten Erfahrungen aller Teammitglieder beruht.
Um die Nachvollziehbarkeit und Reliabilität des Bewertungsprozesses zu gewährleis-
ten, sollten jedoch zur Vermeidung von Meta-Risiken grundsätzlich nur einfach nach-
vollziehbare Verteilungen zur Anwendung kommen und die Teamleiter über hinrei-
chende statistische Grundkenntnisse verfügen.
Die Aussagekraft des Modells macht es zudem erforderlich, von einer „zwangsweisen“
Generierung schwer ermittelbarer Verteilungen abzusehen. Dies betrifft insbesondere
jene Risiken, die ohnehin nur schwer quantifizierbar sind (z. B. Abschätzung kultureller
Integrationsrisiken, etc.).
45
Literaturverzeichnis
Adam, D. (Planung): Planung und Entscheidung, 4. Auflage, Wiesbaden 1996
Bleuel, H. H.: Monte-Carlo-Analysen im Risikomanagement mittels Software-
Erweiterungen zu MS-Excel dargestellt am Fallbeispiel der Unternehmensplanung,
in: Controlling 2006, S. 371-378
Clemen, R./Winkler, R.: Combining Probability Distributions from Experts in Risk
Analysis, in: Risk Analysis 1999, S. 187-203
Eisenführ, F./Weber, M. (Entscheiden): Rationales Entscheiden, 3. Aufl., Berlin 1999
French, N./Gabrielli, L.: Discounted Cash Flow: Accounting for Uncertainty, in: Journal
of Property Investment and Finance 2005, S. 76-89
Füser, K./Rödel, K./Kang, D.: Identifizierung und Quantifizierung von „Operational
Risk“, in: FB 2002, S. 495-502
Gillenkirch, R. M./Thamm, R.: Fallstudie zur Unternehmensbewertung: Bewertung der
MiQuando-AG. Teil 2: Bewertung des Unternehmens und Risikosimulation, in:
WiSt 2008, S. 685-689
Gleißner, W./Wolfrum, M.: Simulationsbasierte Bewertung und Exit Preis-Schätzung
bei PE-Gesellschaften, in: M&AR 2008, S. 343-350
Günther, T./Smirska, K./Schiemann, F./Weber, S.: Optimierung des Risikomanage-
ments am Beispiel der R. Stahl Technologiegruppe, in: Controlling 2009, S. 48-56
Hauwermeiren, M. van/Vose, D. (Distributions): A Compendium of Distributions,
Ghent 2009, abrufbar als E-Book unter
http://www.vosesoftware.com/content/ebook.pdf (12.03.2010)
Helbling, C. (Due Diligence Review): Due Diligence Review, in: Peemöller, V. H.
(Hrsg.): Praxishandbuch der Unternehmensbewertung, 4. Aufl., Herne 2009,
S. 233-242
Henselmann, K.: Value Reporting und Konkurrenzanalyse, in: BFuP 2005, S. 296-305
Hildenbrand, K.-H. (Systemanalyse): Systemorientierte Risikoanalyse in der Investiti-
onsplanung, Berlin 1988
Jödicke, D.: Risikosimulation in der Unternehmensbewertung, in: FB 2007, S. 166-171
46
Keefer, D. L./Bodily, S. E.: Three-Point Approximations for Continuous Random Vari-
ables, in: Management Science 1983, S. 595-609
Kegel, K. P. (Risikoanalyse): Risikoanalyse von Investitionen - Ein Modell für die Pra-
xis, Darmstadt 1991
Klein, M. (Softwaretools): Add-in basierte Softwaretools zur stochastischen Unterneh-
mensbewertung?, Working Papers in Accounting, Valuation and Auditing Nr.
2010-7, Friedrich-Alexander-Universität Erlangen-Nürnberg
Klein, R./Scholl, A. (Planung): Planung und Entscheidung, Wiesbaden 2004
Kulhavy, H./Unzeitig, E.: Die „Durchleuchtung“ eines Kaufobjekts im Rahmen eines
Unternehmenserwerbs - Ablauf und Arten einer Due Diligence im Überblick, in:
UM 2004, S. 445-451
Lucks, K./Meckl, R.: Strukturierung von M&A-Projekten - Der prozessorientierte An-
satz, in: M&AR 2002, S. 494-501
Madlener, R./Siegers, L./Bendig, S.: Risikomanagement und -controlling bei Offshore-
Windenergieanlagen, in: ZfE 2009, S. 135-146
Mootz, C. (Risikoanalyse): Risikoanalyse geschlossener Immobilienfonds. Grundlagen,
Anforderungen, Praxisbeispiele, Saarbrücken 2007
Moser, U./Schieszl, S.: Unternehmenswertanalysen auf der Basis von Simulationsrech-
nungen am Beispiel eines Biotech-Unternehmens, in: FB 2001, S. 530-541
Moxter, A.: Die Bedeutung der Grundsätze ordnungsmäßiger Unternehmensbewertung,
in: ZfbF 1980, S. 454-459
Scholl, A. (Befragung): Die Befragung, Konstanz 2003
Strauch, J. (Due Diligence): Unternehmensbewertung und Grundsätze ordnungsmäßiger
Due Diligence, Dissertation, Münster 2004, abrufbar unter:
http://deposit.ddb.de/cgi-bin/dokserv?idn=974004227 (13.02.2010)
Vose, D. (Risk Analysis): Risk Analysis - A Quantitative Guide, 3. Aufl., Chichester
2008
47
Abschnitt B.2
Valuation is fuzzy
Integration qualitativer Risiken ins stochastische
Bewertungsmodell mit Hilfe der Fuzzy-Set Theorie
veröffentlicht als:
Working Paper in Accounting Valuation Auditing Nr. 2010-8
abrufbar unter: http://www.pw.wiso.uni-erlangen.de/forschung/arbeitspapiere.shtml
(24.02.2011)
ein Auszug hieraus wurde in leicht modifizierter Form
veröffentlicht in:
Controlling – Zeitschrift für erfolgsorientierte Unternehmenssteuerung (ZfC),
Heft 12, S. 710-719
Titel: „Fuzzy-Set Theorie im Risikomanagement“
(siehe Anhang 2)
48
49
Gliederung
1 Einleitung .......................................................................................................................... 51
2 Allgemeine Grundlagen .................................................................................................... 55
2.1 Ausgangsproblem .................................................................................................... 55
2.2 Formen der Unsicherheit ......................................................................................... 59
2.3 Fuzzy-Set Theorie .................................................................................................... 61
2.4 Wissensbasierte Systeme ......................................................................................... 64
2.5 Besonderheiten der Due Diligence .......................................................................... 67
3 Erstellung des Fuzzy Business Risk Models ..................................................................... 69
3.1 Retrograde Risikoanalyse ........................................................................................ 69
3.2 Auswahl wesentlicher qualitativer Risikofaktoren .................................................. 70
3.3 Einbettung der qualitativen Risikofaktoren ins Modell ........................................... 72
4 Wissenserwerb ................................................................................................................... 74
4.1 Bedeutung ................................................................................................................ 74
4.2 Wissensquellen ........................................................................................................ 75
4.2.1 Internes Wissen ............................................................................................ 75
4.2.2 Externes Wissen ........................................................................................... 78
4.3 Beispiel zum Wissenserwerb ................................................................................... 84
4.3.1 Faktenwissen ................................................................................................ 84
4.3.2 Regelwissen .................................................................................................. 86
5 Fuzzyfizierung der qualitativen Risiken ............................................................................ 89
5.1 Grundlegende Aufgaben .......................................................................................... 89
5.1.1 Festlegung des Typs der Zugehörigkeitsfunktion ........................................ 89
5.1.2 Festlegung der linguistischen Terme ............................................................ 91
5.1.3 Festlegung der Definitionsbereiche .............................................................. 91
5.2 Ermittlung der Zugehörigkeitsgrade ........................................................................ 93
5.2.1 Ordinalskalierte Ausprägungen .................................................................... 93
5.2.2 Reellwertige Ausprägungen ......................................................................... 94
5.2.3 Erfülltheitsgrade als Zugehörigkeitsgrade ................................................... 97
5.3 Formulierung der Regelsätze und Zuordnung der Zugehörigkeitsgrade ................. 99
50
6 Inferenzkomponente bei unscharfen Mengen ................................................................. 102
6.1 Aggregation ........................................................................................................... 102
6.2 Implikation............................................................................................................. 104
6.3 Akkumulation ........................................................................................................ 105
7 Defuzzyfizierung unscharfer Mengen ............................................................................. 106
7.1 Zielsetzung............................................................................................................. 106
7.2 Methoden zur Defuzzyfizierung ............................................................................ 107
7.2.1 Überblick .................................................................................................... 107
7.2.2 Anwendung ................................................................................................ 108
7.3 Ergebnisse und Vergleich ...................................................................................... 111
8 Integration unscharfer Mengen in die Monte-Carlo Simulation ..................................... 113
8.1 Zielsetzung............................................................................................................. 113
8.2 Methoden zur Umrechnung in Wahrscheinlichkeiten ........................................... 114
8.2.1 Überblick .................................................................................................... 114
8.2.2 Dreipunktschätzverfahren .......................................................................... 115
8.2.3 Intervalltechnik ........................................................................................... 116
8.3 Durchführung der Monte-Carlo Simulation .......................................................... 118
8.3.1 Ganzheitliches Risikoprofil ........................................................................ 118
8.3.2 Risikoprämie und Unternehmenswert ........................................................ 121
9 Kritische Würdigung des Konzepts ................................................................................. 122
10 Zusammenfassung und Ausblick ..................................................................................... 125
Literaturverzeichnis ................................................................................................................ 127
51
1 Einleitung
Bei den Discounted Cashflow-Verfahren (DCF-Verfahren) ergibt sich der Unterneh-
menswert aus den diskontierten Zahlungsüberschüssen des Unternehmens im Zeitab-
lauf.1 Der Zahlungsüberschuss (Free Cashflow) basiert dabei grundsätzlich auf einer
Gewinnprognoserechnung, die um entsprechende Korrekturen (Abweichungen zwi-
schen Einzahlungen und Ertrag; Auszahlungen und Aufwand) modifiziert wird. Für
diese explizite Unternehmensplanung bedient man sich eines formalen Modells des Un-
ternehmens,2 das mit den künftig erwarteten Daten aufgefüllt wird. Hierbei handelt es
sich um eine integrierte Finanz-, Erfolgs- und Bilanzplanung.3 Der zur Unternehmens-
bewertung gesuchte Free Cashflow stellt einen Ausschnitt aus der Plan-Finanzrechnung
dar.
Gewinn t
Zahlungs-
überschusst
Werttreiber
(Value Driver)Einflussgrößen
+/-
Korrekturen t
Gewinn t
Zahlungs-
überschusst
Werttreiber
(Value Driver)Einflussgrößen
+/-
Korrekturen t
Abb. 1: Einflussgrößen auf den Zahlungsüberschuss einer Periode4
Erfolgs-, Finanz- und Bilanzgrößen werden aus vorgelagerten Rechengrößen abgeleitet,
die auf der untersten Stufe des baumartigen Zusammenhangs als Werttreiber (Value
1 Vgl. Mandl, G./Rabel, K.: Methoden, S. 64.
2 Vgl. Ballwieser, W./Leuthier, R.: DStR 1986, S. 550.
3 Vgl. Chmielewicz, K.: Finanzrechnung, S. 21-23.
4 Vgl. Henselmann, K.: Unternehmensrechnungen, S. 101.
52
Driver) bezeichnet werden. Aus der Gesamtheit aller Zusammenhänge resultiert das
sog. Business Model.5
In tabellarischer Darstellung – etwa für Tabellenkalkulationsmodelle – enthalten die
Spalten die verschiedenen Planjahre. In den Zeilen wird der in Abb. 1 dargestellte
„Baum“ mit seinem Stamm, Ästen und Blättern abgebildet. Diese umfassen den Zah-
lungsüberschuss (Stamm) einschließlich der Finanzrechnung, die Erfolgsrechung (Ast
mit Zweigen), die Bilanzveränderungen und die Bilanz (Ast mit Zweigen) sowie ggf.
Zwischengrößen und die jeweiligen Werttreiber (Blätter).6 Um eine Ursache-Wirkungs-
Beziehung zwischen dem zu bewertenden Unternehmen bzw. den zu vergleichenden
Alternativen und dem Unternehmenswert herzustellen, muss die Kette funktionaler Zu-
sammenhänge lückenlos über alle Zwischenstufen hinweg vorliegen.
Hinsichtlich der quantitativ-monetären Ebenen des Bewertungsmodells ist dies relativ
unproblematisch, da sich die rechnerischen Zusammenhänge logisch ableiten lassen.
Beispielsweise wird die Größe „Gewinn“, durch die vorgelagerten Einflussgrößen „Um-
satz“ und „Kosten“ determiniert:
Gewinn
(100 GE)
Umsatz
(400 GE)
Kosten
(300 GE)
Gewinn
(100 GE)
Umsatz
(400 GE)
Kosten
(300 GE)
Abb. 2: Deterministische Gewinnfunktion
So ergibt sich der Gewinn durch Subtraktion der Kosten vom Umsatz. Für sicher vorlie-
gende (deterministische) Daten gilt beispielsweise:
Gewinn = 400 GE - 300 GE = 100 GE
5 Vgl. hierzu ausführlich Ernst, H.-J./Hanikaz, M.: Modulgesteuerte Businessplanung, S. 214-219.
6 Vgl. hierzu auch Henselmann, K: Unternehmensrechnungen, S. 101-112.
53
Daran ändert sich nichts grundsätzliches, wenn die vorgelagerten Größen nicht mit Ge-
wissheit bekannt sind, sondern hierfür „nur“ Wahrscheinlichkeitsverteilungen vorliegen:
Gewinn
Umsatz
Kosten
Verteilung des simulierten
Gewinns
Verteilung des Umsatzes
Verteilung der Kosten
Gewinn
Umsatz
Kosten
Gewinn
Umsatz
Kosten
Verteilung des simulierten
Gewinns
Verteilung des Umsatzes
Verteilung der Kosten
Abb. 3: Stochastische Gewinnfunktion
Für das Ergebnis „Gewinn“ lässt sich dann eine Wahrscheinlichkeitsverteilung errech-
nen. Bei der Verknüpfung der beiden Einflussgrößen „Umsatz“ und „Kosten“ sind je-
doch zusätzliche Zusammenhänge (z.B. Korrelationen) zwischen den Verteilungen zu
beachten. Die Berechnung selbst kann mit Hilfe von Simulationsmethoden, insbesonde-
re der Monte-Carlo Simulation, erfolgen.7
Das Business Model wird auf diese Weise zu einem Business Risk Model erweitert,
wobei man die Simulation von Wahrscheinlichkeitsverteilungen auf vorher identifizier-
te, besonders relevante Risikoquellen begrenzen wird. Hinweise auf die besondere Re-
levanz von Risikoquellen ergeben sich im Verlauf einer Due Diligence. Auch im Rah-
men der sorgfältigen Prüfung des zu erwerbenden Unternehmens können Daten zur ge-
nauen Gestalt der Wahrscheinlichkeitsverteilungen und der Interdependenzen erhoben
werden.8
7 Vgl. zur Funktionsweise Henselmann, K./Klein, M./Fürst, B.: Corporate Finance biz 2010, S. 462.
8 Vgl. hierzu auch Henselmann, K./Klein, M.: M&A Review 2010, S. 358-366.
54
Die quantitativ-monetäre Betrachtung umfasst jedoch nur einen Teil des Bewertungs-
modells. Die Ausprägung der monetären Werttreiber wird nämlich von verschiedenen
vorgelagerten Einflussgrößen bestimmt. Hierbei handelt es sich entweder um9
exogene Umweltbedingungen (z.B. Entwicklung des Nachfragevolumens, Eintritt
neuer Wettbewerber, Änderungen der gesetzlichen Rahmenbedingungen) oder aber
um
endogene Parameter der Unternehmensstrategie (z.B. Investitionen, Preisänderun-
gen, Produktpolitik).
Die Verbindungen zwischen den Werttreibern - welche als Kennzahlen die Ausgangsda-
ten der Unternehmensbewertung bilden - und den nicht-monetären Einflussgrößen stel-
len eine kritische Schwachstelle der Unternehmensbewertung dar.10
Solche Verbindungen zu oder zwischen qualitativen Größen können keine rechneri-
schen Funktionen im engeren Sinne sein, sondern treten lediglich in Form hypotheti-
scher oder auch empirisch untermauerter Zusammenhänge auf. „Aus methodischer Sicht
besteht das Ziel der Bewertungslehre vor allem darin, auch „soft methods“ in den Be-
wertungsprozess zu integrieren und gleichzeitig die Verbindung zu einer Preisvorstel-
lung herzustellen.“11
Eine Unternehmensbewertung, die auf einer ganzheitlichen Risikoaggregation aufbaut,
kann letztlich nur dann befriedigend sein, wenn sie sowohl quantitative als auch qualita-
tive Risiken integriert.12
Ziel des folgenden Beitrags ist es daher, die „herkömmliche“
Unternehmensbewertung, welche sich auf quantitative Werttreiber beschränkt, um wei-
ter vorgelagerte qualitative Einflussgrößen zu erweitern. Dabei können Ursache-
Wirkungs-Zusammenhänge zwischen qualitativen Größen auf Basis der Prädikatenlogik
mit Hilfe von WENN ... DANN ... - Aussagen (anstelle von mathematischen Formeln
zwischen quantitativen Größen) dargestellt werden.13
An die Stelle der Monte-Carlo
Simulation bei quantitativen Größen tritt bei qualitativen Faktoren zunächst die Theorie
9 Vgl. Böhler, H.: Früherkennung, S. 204.
10 Vgl. Bretzke, W.: BFuP 1993, S. 42.
11 Ruhnke, K.: DB 1991, S. 1893.
12 Vgl. Krebs, P./Müller, N./Reinhardt, S./Schellmann, H./von Bredow, M./Reinhart, G.: ZWF 2009,
S. 178.
13 Vgl. hierzu Lämmel, U./Cleve, J.: Künstliche Intelligenz, S. 54-65.
55
„unscharfer Mengen“ (Fuzzy-Sets).14
Diese erlaubt ebenfalls ein Rechnen mit unsiche-
ren Merkmalsausprägungen. Das zu schaffende Bewertungsmodell kann man somit
auch als Fuzzy Business Risk Model bezeichnen. Des Weiteren wird gezeigt, dass sich
die mit Hilfe der Fuzzy-Set Theorie gewonnenen Ergebnisse in die Monte-Carlo Simu-
lation überführen lassen. Die Weiterverarbeitung des aggregierten, qualitativen Risiko-
potentials im Rahmen der Monte-Carlo Simulation erzeugt damit ein ganzheitliches
Risikoprofil.
2 Allgemeine Grundlagen
2.1 Ausgangsproblem
Die Schwierigkeit bei der Zuordnung qualitativer Risiken zur finanziellen Planrechnung
besteht darin, dass viele dieser „weichen Einflussgrößen“ im Rahmen des Bewertungs-
prozesses nicht unmittelbar zu quantifizieren sind.15
Anders als finanzwirtschaftliche
und operative Risiken finden erfolgskritische qualitative Faktoren – wie beispielsweise
die akquisitionsbedingte Mitarbeitermotivation, Strategiekonzepte oder kulturelle Un-
terschiede – trotz ihrer betonten Wichtigkeit16
häufig nur durch Scoring-Modelle Be-
rücksichtigung.17
Damit bleibt eine monetäre Verbindung dieser Größen mit der
integrierten deterministischen bzw. stochastischen Planrechnung weitgehend aus.18
Nicht-quantifizierbare Risiken darf es in der Unternehmensbewertung eigentlich nicht
geben, weil jeder Investor sein Engagement und damit seine Kaufpreisvorstellung letzt-
lich von der prognostizierten Chancen- und Risikostruktur abhängig macht.19
Insbeson-
dere bei kleineren Unternehmen ohne ausreichende Diversifikation nehmen weiche Fak-
toren häufig die Rolle eines „leading indicators“ ein, d.h. die qualitativen Einflussgrö-
14
Die Grundzüge der Fuzzy-Ansätze (engl. für vage, unbestimmt) gehen auf den polnischen Logiker
Jan Lukasiewicz – der in den zwanziger Jahren des vorigen Jahrhunderts die unscharfe Logik als di-
rekte Erweiterung der binären Logik herausarbeitete – zurück. Zur Geschichte vgl. Karagiannis,
D./Telesko, R.: Wissensmanagement, S. 195-206 sowie Kosko, B.: Zukunft ist fuzzy, S. 40-43.
15 Vgl. Vester, V.: Vernetztes Denken, S. 20 und S. 99.
16 Vgl. Fülbier, R./Niggemann, T./Weller, M.: FB 2008, S. 807; Popp, M.: Lageanalyse, S. 202-205.
17 Vgl. hierzu auch die Studie von D.I.R.K. e.V.: Corporate Perception on Capital Markets sowie Fink,
S.: Bewertungsprobleme, S. 261-263.
18 Vgl. Reinhart, G./Krebs, P./Haas, M./Zäh, M.: ZWF 2008, S. 845.
19 Vgl. Gleißner, W./Mott, B.: ZRFG 2008, S. 53-63.
56
ßen laufen meist der Entwicklung der erfolgs- bzw. finanzwirtschaftlichen quantitativen
Größen voraus.20
Es ist daher nach einem Bewertungssystem zu suchen, das eine Menge von quantitati-
ven und qualitativen Risikoaspekten abbilden kann, die allein betrachtet eventuell un-
problematisch sind, im Zusammenspiel für einen Investor aber entscheidungsrelevant
werden können.21
Zu berücksichtigen ist hierbei, dass auch innerhalb der vorgelagerten
qualitativen Einflussgrößen verschiedene kettenartige kausale Verknüpfungen möglich
sind.22
Beispielsweise hängt die Wahrnehmung des Unternehmens in der Öffentlichkeit (hier
mit der Variable bzw. Ergebnisgröße „Publik“ bezeichnet) sowohl davon ab, welche
eigenen Marketingmaßnahmen das Unternehmen ergreift (Variable bzw. Einflussgröße
„Marketing“) als auch davon, wie das Unternehmen in der Presse dargestellt wird (Va-
riable bzw. Einflussgröße „Presseecho“):
Publik
Marketing
Presseecho
Publik
Marketing
Presseecho
Abb. 4: Einflussgrößen auf die Wahrnehmung des Unternehmens in der Öffentlichkeit
Im konkreten Fall könnte für die Ausprägungen der Einflussgrößen gelten:
Marketing = „niedrig“
Presseecho = „negativ“
20
Vgl. Hayn, M.: Junge Unternehmen, S. 676-677; Helbling, C.: Kleine und mittlere Unternehmen,
S. 715-716; Vater, H./Meckel, M./Hoffmann, C./Fieseler, C.: DB 2008, S. 2605.
21 Ähnlich Eickemeier, S.: Fuzzy-Entscheidungsmodelle, S. 664; Krebs, P./Müller, N./Reinhardt, S./
Schellmann, H./von Bredow, M./Reinhart, G.: ZWF 2009, S. 178.
22 Zu Einflussfaktorennetzen vgl. Dietrich, R.: Methoden, S. 89.
57
Hieraus würde sich zum Beispiel – auf Basis bekannter oder noch zu erhebender Daten,
die zusammen eine sog. Wissensbasis ergeben (vgl. hierzu Kap. 2.4) – für die Ergebnis-
größe Publik eine Ausprägung von Publik = „schlecht“ ergeben:
Publik„schlecht“
Marketing„niedrig“
Presseecho„negativ“
Publik„schlecht“
Marketing„niedrig“
Presseecho„negativ“
Abb. 5: Zusammenhänge zwischen den Einflussgrößen
Unter Unsicherheit sind die Merkmalsausprägungen allerdings nicht eindeutig definiert.
Versucht man im Rahmen einer Due Diligence die Einflussgröße Presseecho zu erhe-
ben, so müssen hierfür vom Team beispielsweise fünf Zeitungsberichte eingestuft wer-
den.
(1) Die Erfassung könnte als erstes durch (subjektive) Abschätzung und Einordnung auf
einer Ordinalskala erfolgen:
„negativ
_groß“
„negativ“ „neutral“ „positiv“ „positiv
_groß“
Zeitung 1 X
Zeitung 2 X
Zeitung 3 X
Zeitung 4 X
Zeitung 5 X
Gesamt X
Tab. 1: Einordnung der Einflussgröße Presseecho
Anschließend wird mittels Durchschnittsbildung ein Gesamturteil abgeleitet, wel-
ches hier z.B. „negativ“ lauten würde (mit leichter Tendenz zu „neutral“). Ebenso
wäre es auch möglich, die verschiedenen Einschätzungen der Due Diligence Team-
58
mitglieder zu aggregieren. Nachteilig hieran ist, dass die Informationen über die
Streuung der Ergebnisse verloren gehen, welche aber für die Risikoeinstufung von
zentraler Bedeutung ist.
(2) Eine Alternative, die auf der Theorie unscharfer Mengen beruht (vgl. hierzu
Kap. 2.3), würde hingegen die möglichen Merkmalsausprägungen „negativ_groß“,
„negativ“, „neutral“, positiv“ und „positiv_groß“ beibehalten. Für jede Ausprägung
wird jedoch ein „Zugehörigkeitsmaß“ angegeben. Letzteres ist größer, je „passen-
der“ der qualitative Ausdruck für den untersuchten Sachverhalt ist. Die Summe aller
„Zugehörigkeitsmaße“ muss dabei nicht eins ergeben. Im Beispiel:
Merkmalsausprägungen Zugehörigkeitsmaß
„negativ_groß“ 0,1
„negativ“ 0,5
„neutral“ 0,2
„positiv“ 0,0
„positiv_groß“ 0,0
Tab. 2: Ausgestaltung der Merkmalsausprägungen der Einflussgröße Presseecho
Mit Techniken des sog. „Unscharfen Schließens“ (vgl. hierzu Kap. 5.3) ist es mög-
lich, die Ausprägungen bei „Presseecho“ und „Marketing“ zu verarbeiten und eine
ebenfalls unscharfe Ergebnismenge für die Variable „Publik“ abzuleiten:
Publik
Marketing
Presseecho
0,0„positiv_groß“
0,0„positiv“
0,2„neutral“
0,5„negativ“
0,1„negativ_groß“
ZugehörigkeitsmaßAusprägungen
0,0„sehr_hoch“
0,0„hoch“
0,1„mittel“
0,8„niedrig“
0,1„sehr_niedrig“
ZugehörigkeitsmaßAusprägungen
0,0„sehr_gut“
0,0„gut“
0,1„mittel“
0,4„schlecht“
0,3„sehr_schlecht“
ZugehörigkeitsmaßAusprägungen
Publik
Marketing
Presseecho
Publik
Marketing
Presseecho
0,0„positiv_groß“
0,0„positiv“
0,2„neutral“
0,5„negativ“
0,1„negativ_groß“
ZugehörigkeitsmaßAusprägungen
0,0„sehr_hoch“
0,0„hoch“
0,1„mittel“
0,8„niedrig“
0,1„sehr_niedrig“
ZugehörigkeitsmaßAusprägungen
0,0„sehr_gut“
0,0„gut“
0,1„mittel“
0,4„schlecht“
0,3„sehr_schlecht“
ZugehörigkeitsmaßAusprägungen
Abb. 6: Grundprinzip des Unscharfen Schließens
59
Solche Zusammenhänge lassen sich selbstverständlich auch zwischen mehreren Stufen
herstellen. Das obige (Teil-)Ergebnis „Publik“ wäre dann beispielsweise die Einfluss-
größe für eine nachgelagerte Variable „Kundentreue“. Die „Kundentreue“ wiederum hat
einen Einfluss auf die Absatzmenge. Damit kann ein Übergang auf den quantitativen
Teil des Bewertungsmodells und eine Einbettung in die Monte-Carlo Simulation vorge-
nommen werden. Für die Unternehmensbewertung ist natürlich die Güte der hypotheti-
schen Verbindungen zwischen dem monetären Modellteil und den tiefer liegenden Ur-
sache-Wirkungs-Ketten von entscheidender Bedeutung.23
2.2 Formen der Unsicherheit
Auf den Unternehmenswert wirkende Faktoren bzw. Risiken können sowohl quantitati-
ver als auch qualitativer Natur sein.
Im Gegensatz zu qualitativen Faktoren können sicher eintretende quantitative Faktoren
durch eindeutige Zahlen ausgedrückt, also scharf beschrieben werden (beispielsweise
als zu prognostizierende Fixkosten aus Mietverträgen). Eine stochastische Unsicherheit
liegt dann vor, wenn zwar eine scharfe Beschreibung möglich ist (z.B. als Absatzpreis
oder Absatzmenge), die zu beschreibende quantitative Größe aber nicht die einzige
Möglichkeit darstellt.
Stochastischen Unsicherheiten werden daher Eintrittswahrscheinlichkeiten zugerechnet.
Sind die zukünftig möglichen Umweltzustände genau quantifizierbar, ohne aber zu wis-
sen, welcher dieser Zustände tatsächlich eintreten wird, handelt es sich um eine infor-
mationsorientierte Unsicherheit.24
Die wirkungsorientierte Unsicherheit ist – als zweite
Ausprägung der stochastischen Unsicherheit – als Chance bzw. Gefahr zu verstehen,
dass eine prognostizierte scharfe Größe vom gesetzten Ziel abweicht (z.B. die prognos-
tizierte Absatzmenge). Diese möglichen Abweichungen lassen sich durch die Wahr-
scheinlichkeitstheorie ausdrücken, indem den prognostizierten Werten bestimmte Wahr-
scheinlichkeitsverteilungen zugewiesen werden. Beide Konzepte haben damit gemein-
23
Vgl. Rappaport, A.: Creating, S. 81.
24 Vgl. Bennert, R.: Soft-Computing Methoden, S. 33; Reinhart, G./Krebs, P./Haas, M./Zäh, M.: ZWF
2008, S. 846. Die informationsorientierten Unsicherheiten werden im Folgenden nicht näher betrach-
tet.
60
sam, dass sie – anders als die linguistische Unsicherheit – auf quantifizierbare Chancen
und Risiken abzielen und sich über die Monte-Carlo Simulation abbilden lassen.
Unsicherheit
quantitativ qualitativ
stochastische
Unsicherheit
(z.B. Absatzmenge, Absatzpreise)
Beschreibung
scharf
Beschreibung unscharf(terminologisch/ relational)
linguistische
Unsicherheit
(z.B. Kulturunterschiede,
öffentliche Wahrnehmung)
Fu
zzy
-Set
Th
eorie
Mo
nte
-Ca
rlo S
imu
latio
n
Unsicherheit
quantitativ qualitativ
stochastische
Unsicherheit
(z.B. Absatzmenge, Absatzpreise)
Beschreibung
scharf
Beschreibung unscharf(terminologisch/ relational)
linguistische
Unsicherheit
(z.B. Kulturunterschiede,
öffentliche Wahrnehmung)
Fu
zzy
-Set
Th
eorie
Mo
nte
-Ca
rlo S
imu
latio
n
Abb. 7: Abgrenzung zwischen stochastischer und linguistischer Unsicherheit
Qualitative Risiken, wie beispielsweise die öffentliche Wahrnehmung des Unterneh-
mens, die Leistungsfähigkeit des bisherigen Managements oder Kulturunterschiede zwi-
schen zwei Unternehmen, lassen sich nur unscharf beschreiben. Unscharfe Angaben
entstehen dadurch, dass die Mehrzahl menschlicher Gedankengänge nur durch – der
Allgemeinheit nicht und nur schwer interpretierbare – Attribute, wie etwa „ausrei-
chend“, „genügend“, „stark“ oder „schwach“ zum Ausdruck gebracht werden können.25
In diesem Zusammenhang spricht man von intrinsischer, lexikalischer oder terminologi-
scher Unschärfe, die die inhaltliche Unsicherheit oder Undefiniertheit von Wörtern und
Sätzen zum Ausdruck bringt (z.B. „starke“ Kulturunterschiede).26
Aussagen, in denen die Beziehungen zwischen den betrachteten Objekten oder Sach-
verhalten keinen scharfen oder zweiwertigen Zusammenhang haben (z.B. stimmt oder
stimmt nicht), werden als unscharfe Relationen bezeichnet.27
Terminologische Unschär-
fen und unscharfe Relationen bilden zusammen die linguistische Unsicherheit.28
Letzte-
re steht im Mittelpunkt der sog. Fuzzy-Set Theorie.
25
Vgl. Theileis, U./Kalhoff, A.: ZfgK 2000, S. 32.
26 Vgl. bspw. Klemm-Bax, S.: Erfolgsfaktoren, S. 16; Mißler-Behr, M.: Fuzzybasierte
Controllinginstrumente, S. 24.
27 Unscharfe Relationen werden im Folgenden vernachlässigt.
28 Vgl. Rosenkranz, F./Mißler-Behr, M.: Unternehmensrisiken, S. 94.
61
2.3 Fuzzy-Set Theorie
Linguistische Variablen bzw. unscharfe Einflussgrößen lassen sich mit Hilfe sog.
Fuzzy-Mengen (engl. Fuzzy-Sets) quantitativ bewerten. Während bei der binär-scharfen
0;1-Logik beispielsweise eine bestimmte Kundentreue beim Zielunternehmen als abso-
lut hoch (1) oder nicht hoch (0) angesehen wird, arbeitet die Fuzzy-Set Theorie mit ei-
ner differenzierten Bewertung über sog. Zugehörigkeitsfunktionen.29
Die Fuzzy-Set Theorie geht also von der einfachen Annahme aus, dass ein Element
(= unscharfe Einflussgröße) nur zu einem bestimmten Grad zu einer Menge gehören
kann.30
Die Zugehörigkeitsfunktion bringt somit den Grad der Zugehörigkeit eines Ele-
ments zu einem unscharfen Term zum Ausdruck.31
Dabei lassen sich ordinalskalierte Ausprägungen und reelwertige Ausprägungen der
Einflussgröße unterscheiden.
Beispiel (1): Ordinalskalierte Ausprägung
Für die unscharfe Einflussgröße Presseecho gilt etwa (vgl. Kap. 2.1):
Name der linguistischen Variable
(= unscharfe Einflussgröße):
Presseecho
Termmenge
(= Merkmalsausprägungen der linguistischen Variable):
„negativ_groß“, „negativ“, „neutral“,
„positiv“, „positiv_groß“
Tab. 3: Termmenge der linguistischen Variable Presseecho
In einem konkreten Bewertungsfall kann das Presseecho direkt durch den Bewerter, das
von ihm eingesetzte Due Diligence Team und/oder externe Experten eingestuft werden.
29
Vgl. bspw. Erben, R. F.: Fuzzy-Logic, S. 82-83. Vgl. zur Fuzzy-Mathematik Rommelfanger, H.: OR
Spektrum 15/1993, S. 31-42.
30 Vgl. de Almeida Cunha, C.: Strategiealternativen, S. 79; Schroll, A.: Fuzzy-Control, S. 102.
31 Vgl. Beemelmann, T.: Fuzzy-Systems, S. 170.
62
Weil die Einordnung der „Tonfalls“ unterschiedlicher vorliegender Zeitungsberichte
durch mehrere Personen kein scharfes, eindeutiges Ergebnis ergibt, könnte die Einstu-
fung nach Zugehörigkeitsgraden etwa wie folgt gelautet haben (vgl. Kap. 2.1):
Ausprägung der Termmenge Zugehörigkeitsgrad
„negativ_groß“ 0,1
„negativ“ 0,5
„neutral“ 0,2
„positiv“ 0,0
„positiv_groß“ 0,0
Tab. 4: Zugehörigkeitsgrade der einzelnen Terme
Je höher der Zugehörigkeitsgrad ist, desto eher trifft die Beschreibung aus der
Termmenge für die konkrete Berichterstattung zu.
Beispiel (2): Reellwertige Ausprägung
In manchen Fällen bedient man sich zur Konstruktion des Modells jedoch eines Um-
wegs über eine reellwertige, quantitative Größe (= scharfe Basisvariable).
Beispielsweise sollen die Zugehörigkeitsgrade der linguistischen Variable Kundentreue
aus dem Kundenzufriedenheitsindex abgeleitet werden. Hierzu werden die in Abb. 8
dargestellten fünf Terme, die jeweiligen Definitionsbereiche sowie der Zugehörigkeits-
funktionstyp formuliert.
Für die unscharfe Einflussgröße Kundentreue ergibt sich beispielsweise folgendes Bild:
Name der linguistischen Variable: Kundentreue
Termmenge: Definitionsbereich: „sehr_niedrig“ 0-25 Punkte
„niedrig“ 20-47 Punkte
„mittel“ 35-65 Punkte
„hoch“ 53-80 Punkte
„sehr_hoch“ 68-100 Punkte
Funktionstyp: überlappende Dreiecksfunktion
Tab. 5: Daten zur Einflussgröße Kundentreue
63
Graphisch lässt sich der Sachverhalt somit wie folgt darstellen:
Zugehörigkeitsgrad
mittel
vom Grad 0,6
niedrig
vom Grad 0,19
100
mögliche Ausprägungen der Kundenzufriedenheit beim Zielunternehmen
(= scharfe Basisvariable)
Kundentreue (= linguistische Variable)
sehr niedrig niedrig sehr hochhochmittel
1
0
45
Kundenzufriedenheit in Punkten
linguistische Terme (Termmenge)
50
35 65
Zugehörigkeitsgrad
vom Grad 0,6
niedrig
vom Grad 0,19
100
mögliche Ausprägungen der Kundenzufriedenheit beim Zielunternehmen
(= scharfe Basisvariable)
Kundentreue (= linguistische Variable)
sehr niedrig niedrig sehr hochhochmittel
1
0
45
Kundenzufriedenheit in Punkten
linguistische Terme (Termmenge)
50
35 65
Zugehörigkeitsgrad
mittel
vom Grad 0,6
niedrig
vom Grad 0,19
100
mögliche Ausprägungen der Kundenzufriedenheit beim Zielunternehmen
(= scharfe Basisvariable)
Kundentreue (= linguistische Variable)
sehr niedrig niedrig sehr hochhochmittel
1
0
45
Kundenzufriedenheit in Punkten
linguistische Terme (Termmenge)
50
35 65
Zugehörigkeitsgrad
vom Grad 0,6
niedrig
vom Grad 0,19
100
mögliche Ausprägungen der Kundenzufriedenheit beim Zielunternehmen
(= scharfe Basisvariable)
Kundentreue (= linguistische Variable)
sehr niedrig niedrig sehr hochhochmittel
1
0
45
Kundenzufriedenheit in Punkten
linguistische Terme (Termmenge)
50
35 65
Abb. 8: Beispiel für eine Zugehörigkeitsfunktion in der Unternehmensbewertung
Eine Kundenzufriedenheit wird bei 50 Punkten demnach als vollständig „mittelwertige“
Kundentreue identifiziert. Folglich wird ihr ein Zugehörigkeitsgrad von 1 zugeordnet,
der die volle Zugehörigkeit zur Fuzzy-Menge „mittel“ widerspiegelt. In den linken und
rechten Bereichen dieses Punktwerts (50) nimmt der Zugehörigkeitsgrad jeweils ab.
Eine Kundenzufriedenheit in diesen Bereichen wird damit nicht mehr als (eine vollwer-
tig) „mittelwertige“ Kundentreue betrachtet.
So ergibt sich bei einem Punktwert des Kundenzufriedenheitsindizes von 45 beispiels-
weise eine „mittelwertige“ Kundentreue vom Zugehörigkeitsgrad 0,6. Gleichzeitig wird
eine zweite Termausprägung („niedrige“ Kundentreue) angesprochen, d.h. die Kunden-
treue ist bei 45 Punkten des Kundenzufriedenheitsindizes zugleich mit einem Zugehö-
rigkeitsgrad von 0,19 als „niedrig“ einzustufen. Falls die Kundenzufriedenheit mit klei-
ner gleich 35 bzw. größer gleich 65 Punkten ermittelt wird, ergibt sich für den Term
64
„mittel“ jeweils ein Zugehörigkeitsgrad von 0. Diese Ausprägungen sind folglich nicht
mehr Elemente des Terms „mittel“.32
Insbesondere die Ermittlung der Zugehörigkeitsgrade stellt eine besondere Aufgabe im
Rahmen der Due Diligence dar (vgl. ausführlich Kap. 5.2).
2.4 Wissensbasierte Systeme
Grundsätzlich wird die Fuzzy-Set Theorie heute durch Einsatz entsprechender Soft-
wareprogramme unterstützt, die das bewertungsrelevante Fakten- und Regelwissen in
einer sog. Wissensbasis33
speichern und/oder Methoden zur Ableitung von Schlussfol-
gerungen (sog. Inferenzkomponente) beherrschen. Zusätzlich sollten die eingesetzten
Softwarelösungen auch eine Erklärungs- und eine Dialogkomponente enthalten:
Dialogkomponente Wissenserwerbskomponente
Wissensbasis
Inferenzkomponente
Erklärungskomponente
Faktenwissen und Regelwissen
Regelwissen
Dialogkomponente Wissenserwerbskomponente
Wissensbasis
Inferenzkomponente
Erklärungskomponente
Faktenwissen und Regelwissen
Regelwissen
Abb. 9: Grundlegender Aufbau eines wissensbasierten Systems
Faktenwissen
Als Ausgangspunkt aller weiteren Verarbeitungsschritte ist die Wissensbasis mit ent-
sprechendem Datenmaterial anzureichern (Wissenserwerb), welches das sog. Fakten-
wissen enthält.34
Das Faktenwissen beinhaltet das Wissen über alle unscharfen Ein-
flussgrößen, welche Ausgangspunkt der Berechnung im Rahmen des Modells sind.
32
Vgl. allgemein Borgelt, C./Klawonn, F./Kruse, R./Nauck, D.: Neuro-Fuzzy-Systeme, S. 154.
33 Ein Softwareüberblick zu wissensbasierten Programmen geben bspw. Dobler, T./Lambert, A.: KSI
2010, S. 171-175.
34 Vgl. Beemelmann, T.: Fuzzy-Systems, S. 162.
65
Dazu zählen beispielsweise die vom Bewerbungsteam erhobenen Zugehörigkeitsgrade
(Merkmalsausprägung(en)) der linguistischen Variablen Marketing und Presseecho (vgl.
Kap. 2.1):
Faktenwissen über die
linguistische Variable „Marketing“ linguistische Variable „Presseecho“
Termmenge Zugehörigkeitsgrad Termmenge Zugehörigkeitsgrad
„sehr_niedrig“ 0,1 „negativ_groß“ 0,1
„niedrig“ 0,8 „groß“ 0,5
„mittel“ 0,1 „neutral“ 0,2
„hoch“ 0,0 „positiv“ 0,0
„sehr_hoch“ 0,0 „positiv_groß“ 0,0
Tab. 6: Erhobenes Faktenwissen
Regelwissen
Das Regelwissen umfasst als zweiter Teil der Wissensbasis die Kenntnisse über das
Zusammenwirken verschiedener unscharfer Einflussgrößen (linguistischer Variablen).35
Um diese Zusammenhänge verknüpfen zu können, sind die unscharfen Einflussgrößen
unter Zuhilfenahme sog. Regelblöcke zu aggregieren.
Ein Beispiel für einen Regelblock wäre die Variable Publik, deren Ergebnis die Wahr-
nehmung des Unternehmens in der Öffentlichkeit widerspiegelt (vgl. Kap. 2.1). Der
Ausgang eines Regelblocks stellt damit eine aggregierte (Zwischen-)Ergebnisgröße
einzeln verknüpfter unscharfer Einflussgrößen dar. Dabei kann das aggregierte Ergebnis
eines Regelblocks wiederum als Einflussgröße Bestandteil eines übergeordneten Regel-
blocks sein.
Inferenzkomponente
Die Inferenzkomponente bildet das Herzstück eines wissensbasierten Systems und ent-
hält quasi das Wissen über die Verarbeitung des Fakten- und Regelwissens.36
Bei-
spielsweise versucht das Programm die voraussichtliche Absatzmenge zu bestimmen.
35
Vgl. Kratzberg, F.: Fuzzy-Szenario-Management, S. 119.
36 Vgl. allgemein Momsen, B.: Wissensmanagement, S. 70.
66
Im Faktenwissen der Wissensbasis ist die entsprechende Information zunächst nicht
enthalten.
Die Wissensbasis enthält dafür aber eine Regel (Regelwissen), welche besagt, dass
die Absatzmenge u.a. von der unscharfen Einflussgröße Kundentreue abhängt. Die
Ausprägung der Variablen Kundentreue ist allerdings zunächst ebenfalls nicht im
Faktenwissen vorhanden.
Allerdings findet das Programm im Regelwissen eine weitere Regel. Demnach
hängt die Kundentreue u.a. von der öffentlichen Wahrnehmung, also von der Vari-
ablen Publik ab. Die Ausprägung der Variable Publik ist allerdings ebenfalls nicht
im gespeicherten Faktenwissen vorhanden.
Deshalb sucht und findet die Software Einflussgrößen auf die Variable Publik. Das
Ergebnis der Variablen Publik hängt demzufolge von den beiden Einflussgrößen
Marketing und Presseecho ab. Beide Informationen lassen sich dem, beispielsweise
durch die Due Diligence Review ermittelten, Faktenwissen entnehmen. Deshalb
wendet das System diese Regel an und leitet aus den Variablen Marketing und Pres-
seecho den Wert für die Variable Publik ab.
Hierdurch ist auch die Variable Publik, die zugleich einen Regelblock darstellt, be-
kannt und kann in die Regel zur Ermittlung der Kundentreue eingesetzt werden.
Aus der Variable Kundentreue und weiteren Daten ergibt sich schließlich die Vari-
able Absatzmenge.
Durch die geschilderte Regelverkettung wurde die gesuchte Information aus der Wis-
sensbasis abgeleitet.
Im Ergebnis ist die Wirkungsweise der Inferenzkomponente daher mit dem Lösungssys-
tem einer Tabellenkalkulationssoftware vergleichbar. Letztere verknüpft die in einzel-
nen Zellen gespeicherten Daten (Faktenwissen) durch Formeln mit Zellbezügen (Re-
gelwissen) in der richtigen Berechnungsreihenfolge untereinander, um schließlich das
gewünschte Endresultat zu ermitteln.
67
Dialog- und Erklärungskomponente
Die Dialogkomponente stellt die Schnittstelle zwischen dem menschlichen Benutzer
und dem Inhalt wissensbasierter Systeme dar.37
Auch die eingesetzte Fuzzy-Software
sollte stets über eine entsprechende Schnittstelle verfügen, um in der Wissensbasis ab-
gelegtes Wissen (z.B. über die Branche, die globale Umwelt und das zu bewertende
Unternehmen) einfach in die Fuzzy-Inferenz überführen und verarbeiten zu können.
Die Erklärungskomponente hat zur Aufgabe – entsprechend den Grundsätzen ord-
nungsmäßiger Unternehmensbewertung – die Nachvollziehbarkeit der einzelnen kausal
zusammenhängenden Ereignisabfolgen innerhalb eines Regelblocks und ihrer Verknüp-
fungen zu den übergeordneten Hierarchien im Fuzzy Business Risk Model aufzuzei-
gen.38
Somit können auf jeder Hierarchiestufe die angesprochenen Regelblöcke identifi-
ziert und ihr Einfluss auf die Gesamtergebnisgröße intersubjektiv nachvollzogen wer-
den.39
Dies ist insofern wichtig, als dass die richtige Definition der Regelsätze eine
Grundbedingung für eine erfolgreiche Bewertung darstellt.40
2.5 Besonderheiten der Due Diligence
Mit Hilfe der Due Diligence Review soll durch den Käufer und/oder dessen Beauftragte
(Wirtschaftsprüfer, Rechtsberater, etc.) eingehend und sorgfältig geprüft werden, ob das
zu übernehmende Unternehmen den grundsätzlichen Erwartungen des Käufers ent-
spricht.41
Dabei ist ein wesentliches Ziel der Due Diligence die Risikominimierung für
den Käufer.42
Ein Hauptanliegen ist es daher, die der Bewertung zugrunde gelegten An-
nahmen selbst festzulegen oder die Annahmen Dritter Plausibilitätstests zu unterziehen.
37
Vgl. Bennert, R.: Soft-Computing Methoden, S. 60.
38 Vgl. allgemein Bagus, T.: Wissensbasierte Bonitätsanalyse, S. 44-45.
39 Vgl. allgemein zum Inhalt der Erklärungskomponente Puppe, F.: Expertensysteme, S. 135-136.
40 Vgl. Reinhart, G./Krebs, P./Haas, M./Zäh, M.: ZWF 2008, S. 848.
41 Vgl. Helbling, C.: Due Diligence Review, S. 235.
42 Vgl. Bömelburg, P.: Vorbereitung, S. 164.
68
Die Einbindung der Fuzzy-Set Theorie in die stochastische Unternehmensbewertung
stellt an die Due Diligence Review allerdings einige Anforderungen:
Den Ausgangspunkt bildet die Erstellung des Fuzzy Business Risk Models, in dem
die wesentlichen qualitativen Risiken identifiziert und strukturiert dargestellt wer-
den.
Des Weiteren bildet der vollständige Wissenserwerb über das Fakten- und Regel-
wissen eine wichtige Erfolgskomponente. Neben der Formulierung von sog. WENN
... DANN ... - Regelsätzen stehen die Ermittlung der Zugehörigkeitswerte
(Fuzzyfizierung) einzelner Variablen im Aufgabenspektrum des Due Diligence
Teams.43
Die Risikoaggregierung zu einer unscharfen Fuzzy-Menge und die abschließende
Umrechnung in quantitativ rechenbare Werte des Business Risk Models
(Defuzzyfizierung) stellen weitere Herausforderungen dar, die das Due Diligence
Team zu meistern hat.
Die folgenden Ausführungen verdeutlichen die einzelnen Arbeitsschritte näher.
43
Vgl. allgemein Schroll, A.: Fuzzy-Control, S. 138.
69
3 Erstellung des Fuzzy Business Risk Models
3.1 Retrograde Risikoanalyse
Während im klassischen Risikomanagementprozess die progressive Methode von den
identifizierten Risikoursachen ausgeht und deren Einflüsse bis hin zu den Sicherheits-
zielen – beispielsweise der Generierung eines prognostizierten Plan-Cashflows – ver-
folgt, setzt die retrograde Methode entgegengesetzt an.44
Abb. 10: Fuzzy Business Risk Model
Das unternehmensspezifische Ursachen-Wirkungs-Geflecht wird hier ausgehend von
der Businessplanung (Business Risk Model) durchdrungen, indem diejenigen Faktoren
identifiziert und modularisiert werden, die die jeweilige Größe der Planrechnung (z.B.
Absatzmenge bzw. Umsatzerlöse) wesentlich beeinflussen.
44
Vgl. Wolf, K./Runzheimer, B.: Risikomanagement, S. 42.
Umsatzerlöse
Materialaufwand
Personalaufwand
Investitionen ins
Anlagevermögen
sonstige
Aufwendungen (Integrationskosten,
Abfindungszahlungen)
diverse sonstige
Posten ei
ei
ei
ei
ek
ki
ei
ei
scharfe Größen der
Businessplanung (Business Risk Model)
ek
ek
ek
ek
Monte-Carlo
Simulation
FreeCashflow/Unternehmenswert
Wa
hrs
chei
nli
chke
it
Einflussfaktoren auf die Perioden-Cashflows/Unternehmenswert
scharfer Zusammenhang
unscharfer Zusammenhang
ek
ei
unscharfe quantitative Ergebnisgröße (Regelblock)
unscharfe qualitative Einflussgröße
Fuzzy Business Risk Model
70
Auch die Risikoidentifikation im Rahmen der Fuzzy-Set Theorie greift auf die retrogra-
de Methode zurück. Ein quantitativ scharfes Risiko ist beispielsweise das Risiko eines
Absatzmengen- und damit Umsatzeinbruches. Die relevante scharfe Zielgröße in der
Planrechnung stellt die Absatzmenge dar. Das beschriebene Risiko kann beispielsweise
durch den Wegfall eines wichtigen Vertriebspartners ausgelöst werden. Zwischen dem
Ausfall des Vertriebspartners und der Absatzmenge (Umsatzerlöse) besteht somit ein
scharfer Zusammenhang.
3.2 Auswahl wesentlicher qualitativer Risikofaktoren
Fraglich ist nun, welche unscharfen Einflussgrößen ei bzw. Zusammenhänge – d.h. qua-
litative Risiken – in ihrer aggregierten Wirkung zum Ausfall des Vertriebspartners füh-
ren. Darüber hinaus kann die Absatzmenge von weiteren unscharfen Einflussgrößen ei
abhängen (z.B. der Produktqualität). Auch die qualitativen Risiken selbst werden wiede-
rum von einer Vielzahl von Faktoren (z.B. Qualität der Zulieferteile zur Bestimmung
der Qualität der Produkte) gesteuert (vgl. Abb. 10).
Zur Strukturierung des Problems wird empfohlen, für Teilbereiche der Due Diligence
sog. Risikoworkshops durchzuführen (vgl. Tab. 7).45
Aufgabe der jeweiligen Work-
shops ist es, die wesentlichen Risiken des identifizierten Risikoinventars im Sinne einer
Rückwärtsverkettung auf ihre einzelnen Einflussgrößen ei herunterzubrechen. Dabei ist
zu berücksichtigen, dass sich aufgrund der „Mikronisierung“ der Risiken Überschnei-
dungen in den Zuständigkeitsbereichen der einzelnen Due Diligence Teams ergeben
können (z.B. weil das Großkundenrisiko insbesondere von der Kundentreue abhängt
(Commercial/Market Due Diligence Team) und diese wiederum von der ökologischen
Nachhaltigkeit des Unternehmens bestimmt sein könnte (Environmental Due Diligence
Team)).
45
Zum Ablauf eines Due Diligence Prozesses vgl. Kulhavy, H./Unzeitig, E.: UM 2004, S. 445-451.
71
wesentliche Risiken
(Risikoinventar) Zuständigkeitsbereich Workshop
mögliche
Teammitglieder
Portfoliorisiko Strategic
Due Diligence Team/
Human Resources
Workshop
„Strategie“ und
„Personal“
Strategieberater, externe
Berater, Mitarbeiter des
strategischen Control-
lings, Personalexperten
Trendchance/
Managementqualität
Kundentreue
CCommercial/Market
Due Diligence Team
Workshop
„Operatives Geschäft“
Controller, Disponenten,
Marktstrategen,
Finanzexperten
Vertriebsprozessrisiko
Rohstoffpreisrisiko
Markteintritt/-austritt
Zinsrisiko
Financial
Due Diligence Team
Workshop
„Finanzen“
Finanzexperten
(Corporate Finance),
externe Berater Währungsrisiko
Liquiditätsrisiko
Produkthaftungsrisiko
Legal/Environmental
Due Diligence Team
Workshop
„Recht“ und „Umwelt“
Juristen, externe Berater
und Gutachter Nachhaltigkeit
Umweltrisiko (Emission)
Tab. 7: Workshopbildung im Due Diligence Prozess
Die Rückwärtsverkettung gibt zugleich allen Beteiligten der Workshops die Möglich-
keit, sich aktiv mit eigenen Ideen einzubringen. Dadurch wird gewährleistet, dass allen
Teammitgliedern die gleichen Informationen und die gleichen Wahrnehmungen über
die Risikosituation des zu bewertenden Unternehmens vermittelt werden. Abschließend
werden die Ergebnisse der jeweiligen Workshops in Zusammenarbeit der Teamleiter in
ein einheitliches Fuzzy Business Risk Model überführt (vgl. Abb. 10).
Um diese Zielsetzungen zu gewährleisten, kommt dem jeweiligen Teamleiter eine hohe
Bedeutung zu:46
Als Moderator der einzelnen Workshops bietet sich der Teamleiter eines Zuständig-
keitsbereiches an, wobei bereits an dieser Stelle darauf zu achten ist, dass – anders
als die einzelnen Mitglieder des Teams – dieser auch über ein Wissen hinsichtlich
der Theorie unscharfer Mengen besitzen sollte.47
Die Teamleiter müssen alle wichtigen Informationen über die Risiken, die im Risi-
koinventar identifiziert wurden und nun ggf. auf Mikroebene, d.h. auf ihre (unschar-
46
Vgl. allgemein Kegel, K. P.: Risikoanalyse, S. 251; Mootz, C.: Risikoanalyse, S. 133-134; Scholl, A.:
Befragung, S. 120.
47 Ähnlich Kratzberg, F.: Fuzzy-Szenario-Management, S. 122.
72
fen) Einflussgrößen herunterzubrechen sind, vor dem eigentlichen Workshop allen
Teammitgliedern in verständlicher Weise zukommen lassen.
Des Weiteren muss der Teamleiter alle Mitglieder des jeweiligen Due Diligence
Teams in die Debatte einbinden und die Diskussion ziel- und problemorientiert füh-
ren.
Der jeweilige Teamleiter hat dafür Sorge zu tragen, dass die Diskussion über die
Wirkung und Bedeutung einzelner Einflussgrößen ei, ihre Struktur und ihre mögli-
chen Verbindungen zu anderen Bereichen der Due Diligence (und damit auch zu
anderen Risikoworkshops) im Mittelpunkt der Diskussion steht.
Nach Beendigung der Sitzung ist zeitnah eine Mitteilung an die Teilnehmer des
Workshops zu versenden. Diese enthält die ausgearbeitete Struktur des Fuzzy Busi-
ness Risk Models.
3.3 Einbettung der qualitativen Risikofaktoren ins Modell
Zur Bewertung, Aggregation und Interpretation der qualitativen Risikofaktoren muss
ein dreistufiger Prozess durchlaufen werden, der aus der Fuzzyfizierung der oben identi-
fizierten unscharfen Einflussgrößen ei, deren Verarbeitung in der Inferenzkomponente
sowie aus der Defuzzyfizierung besteht (vgl. Abb. 11).48
unscharfe
Einfluss-
größe
ej1
Fu
zzy
fizi
eru
ng
der
qu
ali
tati
ven
Ris
iken
(Erm
ittl
un
g v
on
Zu
geh
öri
gk
eits
gra
den
)
unscharfe
Einfluss-
größe
ej2
unscharfe
Einfluss-
größe
ejn
Inferenzkomponente(rechnerische Verarbeitung der
qualitativen Risiken)
Ag
gre
gati
on
Imp
lik
ati
on
Ak
ku
mu
lati
on
Def
uzzy
fizi
eru
ng
(Um
rech
nun
g i
n e
ine
schar
fe E
rgeb
nis
grö
ße)
unscharfe
Einfluss-
größe
ej1
Fu
zzy
fizi
eru
ng
der
qu
ali
tati
ven
Ris
iken
(Erm
ittl
un
g v
on
Zu
geh
öri
gk
eits
gra
den
)
unscharfe
Einfluss-
größe
ej2
unscharfe
Einfluss-
größe
ejn
Inferenzkomponente(rechnerische Verarbeitung der
qualitativen Risiken)
Ag
gre
gati
on
Imp
lik
ati
on
Ak
ku
mu
lati
on
Def
uzzy
fizi
eru
ng
(Um
rech
nun
g i
n e
ine
schar
fe E
rgeb
nis
grö
ße)
Abb. 11: Prozessschritte
48
Zu den Prozessschritten der Fuzzy-Set Theorie vgl. allgemein bspw. Beemelmann, T.: Fuzzy-
Systems, S. 168-176; Karagiannis, D./Telesko, R.: Wissensmanagement, S. 148-157; Werners, B.:
Wissensbasierte Systeme, S. 129-200; Zimmermann, H.-J.: Fuzzy Technologien, S. 91-102.
73
Innerhalb des Fuzzy Business Risk Models werden die identifizierten und einzeln be-
werteten unscharfen Einflussgrößen ei – d.h. die qualitativen Risiken – über mehrere
Stufen aggregiert, jedoch in keine Wahrscheinlichkeitsverteilungen wie bei der Monte-
Carlo Simulation,49
sondern über ihre Implikationen in weitere unscharfe Fuzzy-
Mengen ek umgerechnet.50
Jede Fuzzy-Menge ek vereinigt alle vorgelagerten qualitati-
ven Einflussgrößen ei.
Am Ende muss die aggregierte Fuzzy-Menge aller qualitativen Risiken
entweder in einen deterministischen Wert oder – sofern die Unternehmensbewer-
tung als Monte-Carlo Simulation durchgeführt wird –
in eine Wahrscheinlichkeitsverteilung
überführt werden. 51
Man spricht hierbei von der sog. Verschärfung oder Defuzzyfizierung. Damit gehen
auch alle qualitativen Risikofaktoren in das stochastische Discounted Cashflow Model
(DCF-Model) als rechenbare Größen ein.
Zur Durchführung des dreistufigen Prozesses muss das oben dargestellte wissensbasier-
te System allerdings entsprechend erweitert werden (vgl. Abb. 12). Im Mittelpunkt steht
hierbei zunächst der Wissenserwerb, also die Anreicherung des Modells um bewer-
tungsrelevantes Wissen.
49
Vgl. Henselmann, K./Klein, M.: M&A Review 2010, S. 358.
50 Vgl. Reinhart, G./Krebs, P./Haas, M./Zäh, M.: ZWF 2008, S. 845.
51 Vgl. allgemein Momsen, B.: Wissensmanagement, S. 159.
74
scharfes Ergebnis
(deterministisch oder stochastisch)
Due Diligence Team externe Experten
Dialogkomponente Wissenserwerbskomponente
Wissensbasis
Fuzzyfizierung(Risikobewertung der
identifizierten qualitativen
Risiken)
Inferenzkomponente(unscharfe Risikoaggregation
aller identifizierten qualitativen
Risiken)
Defuzzyfizierung(Transformation der
Fuzzy-Mengen in rechenbare
Größen)
ErklärungskomponenteBeeinflussung der
Erfolgsgröße der
Businessplanung
Faktenwissen und Regelwissen
RegelwissenFaktenwissen
Eingangsvariablen
Ausgangsvariablen
der Fuzzy-Inferenz
unscharfes Ergebnislinguistische Terme mit
Zugehörigkeitsgraden
Analyse der Risikostruktur
des Zielunternehmens
scharfes Ergebnis
(deterministisch oder stochastisch)
Due Diligence Team externe Experten
Dialogkomponente Wissenserwerbskomponente
Wissensbasis
Fuzzyfizierung(Risikobewertung der
identifizierten qualitativen
Risiken)
Inferenzkomponente(unscharfe Risikoaggregation
aller identifizierten qualitativen
Risiken)
Defuzzyfizierung(Transformation der
Fuzzy-Mengen in rechenbare
Größen)
ErklärungskomponenteBeeinflussung der
Erfolgsgröße der
Businessplanung
Faktenwissen und Regelwissen
RegelwissenFaktenwissen
Eingangsvariablen
Ausgangsvariablen
der Fuzzy-Inferenz
unscharfes Ergebnislinguistische Terme mit
Zugehörigkeitsgraden
Analyse der Risikostruktur
des Zielunternehmens
Abb. 12: Fuzzy-basierte Unternehmensbewertung
4 Wissenserwerb
4.1 Bedeutung
Die Wissenserwerbskomponente spielt bei der Gewinnung und Pflege des bewertungs-
relevanten und in der Wissensbasis gespeicherten Fakten- und Regelwissens eine tra-
gende Rolle. Aufbauend auf den grundsätzlichen Sachverhalten einer Branche kann so
für den jeweiligen Bewertungsfall ein entsprechendes Fuzzy Business Risk Model abge-
leitet werden.
Dies bedeutet einerseits die ständige Weiterentwicklung und Speicherung des Regelwis-
sens über die Ursache-Wirkungs-Zusammenhänge zwischen qualitativen Risikofaktoren
und bestimmten finanzwirtschaftlichen Größen. Nur wenn dies durch die Wissenser-
werbskomponente gewährleistet wird, können die WENN ... DANN ... - Regelsätze
richtig formuliert und in die Fuzzy-Set Theorie integriert werden.
Andererseits hat das zu erwerbende Faktenwissen dafür Sorge zu tragen, dass der
WENN-Teil des Regelsatzes beantwortet werden kann. Dazu muss das entsprechende
bewertungsrelevante Faktum, also die Ausprägung einer unscharfen Einflussgröße ei
(z.B. die Höhe der Wiederkaufrate beim Zielunternehmen), ermittelt werden. Ein dies-
75
bezügliches Faktum könnte beispielsweise lauten: „Die Wiederkaufrate beim Zielunter-
nehmen ist hoch“.
Um das Fakten- und Regelwissen richtig zu gewinnen und in der Wissensbasis zu spei-
chern, muss die Wissenserwerbskomponente auf unternehmensexterne und -interne In-
formationen zurückgreifen.
4.2 Wissensquellen
4.2.1 Internes Wissen
Die traditionell in der internen Unternehmenssteuerung und im (Risiko-)Controlling
eingesetzte Balanced Scorecard52
und die hier zugrunde gelegte Fuzzy-Set Theorie wei-
sen starke Parallelen auf.
Die in den Scorecards abgebildeten Ursache-Wirkungs-Zusammenhänge gelten für viele
zu bewertende Unternehmen einer Branche und werden zudem häufig in Management-
Informationssysteme eingebettet.53
Dieses Wissen über regelbasierte Abläufe sollte da-
her auch von Prüfungsgesellschaften in einer Wissensbasis erfasst, kontinuierlich erwei-
tert und im Rahmen der Due Diligence für den jeweiligen Bewertungsfall entsprechend
angewendet werden.
Ein großer Vorteil besteht darin, dass die so – über mehrere Bewertungsvorgänge – ent-
stehenden Zusammenhänge softwarebasiert abgebildet und in der Wissensbasis abge-
speichert werden können. Due Diligence Teams müssen damit nicht für jede neue Un-
ternehmensbewertung ein neues Modell über die Wirkung unscharfer Einflussgrößen
entwickeln und verfügen so im Zeitablauf für jede Branche über ein bewährtes – in der
Wissensbasis abgespeichertes – Regelwissen.54
Spielt in einem bestimmten Bewer-
52
Zur Verbindung der klassischen Balanced Scorecard mit dem Risikocontrolling vgl. die grundlegen-
den Arbeit von Wurl, H./Mayer, J.: Balanced Scorecards, S. 180-213. Zur klassischen Balanced
Scorecard vgl. Kaplan, R./Norton, D.: Harvard Business Review 1992, S. 71-79. Zum Einsatz der
Balanced Scorecard in deutschen Unternehmen vgl. den Literaturüberblick über 26 empirische Studi-
en von Bach, N.: ZfCM 2006, S. 298-304.
53 Vgl. ausführlich Wittland, M.: WISU 2009, S. 1298-1304.
54 Im hier eingesetzten Softwareprogramm fuzzyTech
® 5.7 (Inform GmbH) gelingt dies dadurch, dass
Modelleingangsvariablen (unscharfe Einflussgrößen ei) durch die Deaktivierung eines Kontrollfelds
keine Berücksichtigung im Fuzzy Business Risk Model finden; vgl. FuzzyTech: Benutzerhandbuch,
S. 51.
76
tungsprozess eine qualitative Einflussgröße nur eine untergewichtige oder keine Rolle,
kann diese im Fuzzy Business Risk Model einfach deaktiviert werden.
Kunden-/Markt-
perspektive(z.B. Marktanteil,
Kundenzufriedenheit)
Finanzperspektive(Erfolgsgrößen der
Planrechnung,
z.B. Umsatz)
Personalperspektive(z.B. Managementqualität,
Facharbeiterquote)
Strategie-/Produkt-
perspektive(z.B. Produktqualität,
Innovationsgrad)
Prozessperspektive(z.B. Durchlaufzeiten,
Fehlerquote)
Balanced
Scorecard
&
Fuzzy-Set
Theorie
Economic & Business Due Diligence
Human Resources Due Diligence
Economic & Business Due Diligence
Supply Chain Due Diligence
Fuzzy-Set Theorie
Monte-Carlo Simulation
Fuzzy Business Risk Model
Business Risk Model
Unscharfe Einflüsse
Quantitative Ebene
Qualitative Ebene
Wissensbasis (Regelwissen)
Wissensbasis (Faktenwissen)
Kunden-/Markt-
perspektive(z.B. Marktanteil,
Kundenzufriedenheit)
Finanzperspektive(Erfolgsgrößen der
Planrechnung,
z.B. Umsatz)
Personalperspektive(z.B. Managementqualität,
Facharbeiterquote)
Strategie-/Produkt-
perspektive(z.B. Produktqualität,
Innovationsgrad)
Prozessperspektive(z.B. Durchlaufzeiten,
Fehlerquote)
Balanced
Scorecard
&
Fuzzy-Set
Theorie
Economic & Business Due Diligence
Human Resources Due Diligence
Economic & Business Due Diligence
Supply Chain Due Diligence
Fuzzy-Set Theorie
Monte-Carlo Simulation
Fuzzy Business Risk Model
Business Risk Model
Unscharfe Einflüsse
Quantitative Ebene
Qualitative Ebene
Wissensbasis (Regelwissen)
Wissensbasis (Faktenwissen)
Abb. 13: Einbindung der Balanced Scorecard in die Fuzzy-Set Theorie
Durch den Rückgriff auf das Konzept der Balanced Scorecard fließen wichtige Aspekte
hinsichtlich der Kunden-, Strategie-, Prozess- und Personalperspektive in die Bewertung
mit ein und können entsprechend als qualitative Einflussgrößen ei im Fuzzy Business
Risk Model abgebildet werden (vgl. Abb. 13). Der Vorteil einer sorgfältig umgesetzten
Balanced Scorecard liegt darin, dass diese in der Lage ist, die angenommenen Abhän-
gigkeitsbeziehungen zwischen den verschiedenen finanziellen und nicht finanziellen
Variablen anschaulich darzustellen.55
So muss beispielsweise bekannt sein, dass die
Lieferzuverlässigkeit die Kundentreue beeinflussen kann und diese wiederum Auswir-
kungen auf die künftige Absatzmenge und damit auf die Umsatzerlöse bzw. die Cash-
flows hat. Die in der qualitativen, nicht-finanziellen Ebene der Scorecard abgebildeten
Risiken (z.B. Produktqualität) sind hierbei als unscharfe Einflussgrößen ei (= qualitative
Risiken) zu interpretieren. Die quantitative Ebene der Scorecard beinhaltet hingegen
jene Erfolgsgrößen der Businessplanung, die durch die aggregierten Risikofaktoren be-
55
Vgl. Gleißner, W.: BC 2000, S. 129; allgemein zur Vorgehensweise Tewald, C.: CM 2004, S. 278-
284.
77
einflusst werden. Auch für die externe (Lage-)Berichterstattung ist durch das interne
Rechnungswesen eines Unternehmens entsprechendes Fakten- und Regelwissen der
Balanced Scorecard bereitzustellen.56
Perspektive empfohlenes
regelbasiertes Faktenwissen
Beispiele für
typische Kennzahlen (Faktum)
Kunden/
Markt
Wissen über Kundenzufriedenheit
Wissen über die relative Position des
Unternehmens am Markt
Wissen über Vertriebsaktivitäten
...
Neukunden-Kontakte
Vertriebsmitarbeiter
Kundenzufriedenheit (Index)
Anteil Stammkunden
Kundentreue
Auftragseingang (Periode)
positive Erwähnungen in der Presse/Image
Prozesse
Wissen über Komplexität der Betriebsprozesse
Wissen über Prozessgüte
Wissen über Lieferzuverlässigkeit
...
Lieferzuverlässigkeit
Verfügbarkeit der Anlagen (Ausfallzeiten)
Time to Market
Kundenanzahl
Lieferantenanzahl
Vertriebsdichte und -wege
Personal
Wissen über Weiterbildungsmaßnahmen
Wissen über Managementfähigkeiten
Wissen über Fluktuation, Betriebsklima und
Unternehmenskultur
Wissen über Fähigkeiten im F&E-Bereich
...
Mitarbeiterzufriedenheit (Index)
veröffentlichte Fachartikel
Weiterbildungsumfang der Mitarbeiter
Lehraufträge an Hochschulen
Managementqualität (Punkte)
Berufserfahrung (Führung, F&E)
Strategie/
Produkte
Wissen über Entwicklungsraten von
Neuprodukten
Wissen über Produktstruktur (Diversifikation)
Wissen über Produktqualität
Wissen über Technologieausrichtung
...
Anzahl Kundenreklamationen
Anzahl Innovationen
Produktpräsenz an Hochschulen
Anzahl Patente/Lizenzen
Produktqualität
Bekanntheitsgrad
Tab. 8: Prozessperspektiven und kennzahlenbezogenes Faktenwissen57
Im Rahmen der Due Diligence Review bietet das interne Rechnungswesen bzw. das
Risikomanagement/-controlling des Zielunternehmens eine gute Anlaufstelle zur Auf-
deckung dieser dort dargestellten Zusammenhänge.
Die vier einzelnen Perspektiven der traditionellen Scorecard enthalten im Regelfall auch
eine Vielzahl von Kennzahlen, die auf unscharfen Einflussgrößen basieren und so wert-
volle Hinweise über die vergangene und gegenwärtige Leistungsfähigkeit eines zu be-
56
Vgl. Freidank, C.-C./Steinmeyer, V.: Controlling 2009, S. 249-256; Tesch, J./Wissmann, R.: Lagebe-
richterstattung, S. 108.
57 Vgl. zu weiteren Kennzahlen Brunner, J.: ST 2000, S. 20; Fischer, T. M./Wenzel, J.: Controlling
2004, S. 308; Tesch, J.: Nichtfinanzielle Leistungsindikatoren, S. 301-317.
78
wertenden Zielunternehmens geben können (vgl. Tab. 8). Die Ausprägungen dieser
Kennzahlen stellen nichts anderes als das intern verfügbare Faktenwissen dar, welches
entsprechend durch die einzelnen Workshops der Due Diligence zu erheben und in der
Fuzzy-Set Theorie zu verarbeiten ist. Ausgehend von den einzelnen Perspektiven der
Balanced Scorecard haben hierzu die einzelnen Teams innerhalb verschiedener Work-
shops das auf den jeweiligen Bewertungsfall bezogene Regelwissen in Teamarbeit zu
überprüfen, zu erweitern und mit dem entsprechenden Faktenwissen auszufüllen (bei-
spielsweise Durchleuchtung der Personalperspektive durch die Human Resources Due
Diligence und Quantifizierung der Managementqualität in Punkten).58
Im Rahmen der Fuzzy-Set Theorie ist allerdings nicht zwingend eine numerische Dar-
stellung einer Kennzahl (z.B. „Die Managementqualität beträgt 70 von 100 Punkten“)
nötig. Ausreichend sind auch unscharfe, d.h. rein qualitative Beschreibungen (z.B. „Die
Managementqualität ist hoch“), da sowohl numerisch-scharfe Kennzahlen als auch qua-
litativ-unscharfe Beschreibungen im Rahmen der sog. Fuzzyfizierung in Fuzzy-Zahlen
(Zugehörigkeitsgrade) überführt werden können.
Ein ähnliches Konzept wie die Balanced Scorecard verfolgt der sog. PIMS-Ansatz (Pro-
fit Impact of Market Strategies).59
Dieser versucht, die maßgeblichen unscharfen Ein-
flussfaktoren (Kundenprofil, relativer Marktanteil, etc.) für den Erfolg einer Strategie
und deren Wechselwirkungen zu erfassen.60
Entsprechend können die diesbezüglichen
empirischen Forschungsergebnisse61
auch zur Formulierung des Fuzzy Business Risk
Models im Rahmen der Unternehmensbewertung genutzt werden.
4.2.2 Externes Wissen
Bewertungsrelevantes Fakten- und Regelwissen kann zum einen an eigene Erfahrungen
aus früheren Bewertungsvorgängen anknüpfen und permanent im Sinne einer Doku-
mentation in einer sog. Erfahrungsdatenbank fortgeschrieben werden.62
Andererseits
58
Vgl. bspw. für die Kundenperspektive Schmeisser, W./Clausen, L.: DStR 2005, S. 2198-2203.
59 Vgl. Brunner, F.: Corporate Finance biz 2010, S. 185.
60 Vgl. Müller-Stewens, G./Lechner, C.: Strategisches Management, S. 322.
61 Vgl. hierzu die Arbeit von Peters, T. J./Watermann, R. H.: Spitzenleistungen.
62 Vgl. allgemein Mertens, P./Meier, M.: Integrierte Informationsverarbeitung, S. 107-110.
79
bieten sich sowohl traditionelle als auch softwaregestützte Analysemöglichkeiten an, die
direkt als Schnittstelle zur Wissensbasis fungieren können.
Wissenserwerb durch Datenanalysemethoden
Die Konkurrenzanalyse (Competitive Intelligence) definiert sich als Prozess, dessen
Aufgabe es ist, „ohne Verletzung ethischer Maßstäbe genaue, relevante, spezielle, aktu-
elle und verwertbare Informationen zu sammeln, zu analysieren und zu verteilen.“63
Neben der traditionellen Inhaltsanalyse (Content Analysis)64
finden in diesem Zusam-
menhang vermehrt computer- und onlinegestützte Methoden Anwendung:
Das Data Mining hat sich in den letzten Jahren zu einer besonders stark ausgepräg-
ten Disziplin im Grenzgebiet zwischen Informatik, Wirtschaftsinformatik und Sta-
tistik etabliert. Hierunter fallen beispielsweise
Methoden der Clusterung,
die Klassifizierung der gefundenen Auffälligkeiten in Entscheidungsbäumen und
der Aufbau „lernender“ künstlicher Neuronaler Netze.65
Während das Data Mining sich primär mit quantitativen Daten beschäftigt, versucht
das Text Mining Wissenswertes aus qualitativen Daten herauszufiltern. Der Nutzen
dieses Verfahrens liegt vor allem darin begründet, umfangreiche Datenmengen in
Entscheidungssituationen mit geringem Zeitaufwand zu erschließen. Als Kernele-
mente kristallisieren sich hier in letzter Zeit insbesondere die Dokumentenklassifi-
kation bzw. -indizierung, die Informationsextraktion, die Relevanzbewertung sowie
die Textvisualisierung heraus.66
Eng verwandt mit dem Text Mining ist das sog. Web Content Mining, welches das
Internet beispielsweise gezielt nach bewertungsrelevanten Informationen durchsu-
63
Hummeltenberg, W.: Business Intelligence, S. 41. Zur Konkurrenz- und Wettbewerbsanalyse vgl.
bspw. Effing, W.: Konkurrenzanalyse; Henselmann, K.: BFuP 2005, S. 296-305; Mertens, P.: WI
1999, S. 405-415.
64 Durch Inhaltsanalysen wird versucht, bestimmte thematische Teile eines Textes analog zu analysie-
ren und spezifisches, bewertungsrelevantes Faktenwissen herauszufiltern. Meist geschieht dies unter
Zuhilfenahme von linguistischer Analysesoftware wie MAXqDa; vgl. hierzu bspw. die Arbeiten von
Fülbier, R./Niggemann, T./Weller, M.: FB 2008, S. 807; Henselmann, K./Klein, M./Maier, C.: Risi-
koangaben, S. 11; Henselmann, K./Klein, M./Raschdorf, F.: Prognoseeignung, S. 11-32.
65 Vgl. hierzu bspw. Beekmann, F./Chamoni, P.: Data Mining, S. 263-282.
66 Vgl. Mertens, P./Meier, M.: Integrierte Informationsverarbeitung, S. 36-37 und S. 86.
80
chen kann. Bedeutung gewinnt die internetbasierte Datenrecherche mit dem seit
01.01.2007 geltenden Gesetz über elektronische Handelsregister und Genossen-
schaftsregister sowie das Unternehmensregister, kurz EHUG.67
Gem. § 325 HGB
sind die gesetzlichen Vertreter von Kapitalgesellschaften verpflichtet, den (Kon-
zern-)Abschluss und ggf. (Konzern-)Lagebericht beim Betreiber das elektronischen
Bundesanzeigers einzureichen und im Internet zu veröffentlichen. Durch das EHUG
hat sich damit die Publizitätswirkung von Abschlüssen deutlich erhöht, sodass die
entsprechenden Inhalte per Web Content Mining durchsucht und interessantes Fak-
tenwissen in der Wissensbasis gespeichert werden kann.
Wissenserwerb durch XBRL
Die Entwicklung und Umsetzung der Finanzberichterstattung mittels XBRL (eXtensible
Business Reporting Language) liefert zukünftig wertvolle Ansatzpunkte zur computer-
gestützten Wettbewerbsbeobachtung. Ziel von XBRL ist es, Ineffizienzen im Prozess
des Datenaustauschs und der Datenanalyse zu reduzieren sowie den Vergleich von In-
formationen zu verbessern.68
Bisher stehen allerdings (noch) die quantitativen Informationen der Bilanz und Erfolgs-
rechnung im Mittelpunkt der Entwicklung. Langfristig sind aber auch primär qualitative
Aussagen (z.B. die des Prognoseberichts) entsprechend aufzubereiten und den Investo-
ren zugänglich zu machen.69
XBRL basierte Forschungsarbeiten sollten sich daher ver-
stärkt mit diesem zukunftsträchtigen Themenfeld auseinandersetzen.
In diesem Zusammenhang ist etwa die derzeitige Entwicklung des Analysetools
eXfinance zu nennen. eXfinance extrahiert und aggregiert relevante Informationen aus
Geschäftsberichten, die im PDF-Format verfügbar sind und bildet diese Informationen
in XBRL ab. Dann können sowohl strukturierte Daten (Bilanzen, GuV-Rechnung) als
auch Fließtexte (z.B. Erläuterungen in Anhang und Lagebericht) berücksichtigt werden.
Die Entwickler von eXfinance beabsichtigen, in Zukunft auch andere Textquellen, wie
67
Vgl. hierzu bspw. Henselmann, K./Kaya, D.: WPg 2009, S. 498.
68 Vgl. Kesselmeyer, B./Frank, R.: Die Bank 2009, S. 72. XBRL (eXtensible Business Reporting Lan-
guage) ist eine auf XML basierende Sprache, mit der elektronische Dokumente im Bereich der Fi-
nanzberichterstattung erstellt werden.
69 Vgl. bspw. Arbeitskreis Externe Unternehmensrechnung (AKEU) der Schmalenbach-Gesellschaft
e.V.: DB 2010, S. 1472.
81
Newsticker oder Finanzportale, zu erschließen. Das so gewonnene Faktenwissen über
unscharfe Einflussgrößen bietet einen erweiterten Informationspool für Analysten,
Fondsmanager oder Mitglieder des Due Diligence Teams, die auf Fuzzy-basierte An-
wendungen zurückgreifen.70
Allerdings liefert der Standard XBRL in der momentanen rechtlichen Ausgestaltung nur
die Möglichkeit, die zu publizierenden Informationen sachgerecht und strukturiert dar-
zustellen.71
Damit kann das berichtende Unternehmen den Umfang und die Qualität der
weiterzugebenden Daten, wie beispielsweise den Umfang und die Präzision der Anga-
ben im Lagebericht, nach wie vor selbst festlegen. Die Qualität des in der Wissensbasis
zu speichernden Faktenwissens hängt somit entscheidend von der Qualität der externen
Berichterstattung ab.
Wissenserwerb aus (Konzern-)Lageberichten
Qualitative Informationen finden sich in (Konzern-)Lageberichten insbesondere im Zu-
sammenhang mit der Berichterstattung zu nicht finanziellen Leistungsindikatoren, zu
Forschung und Entwicklung sowie zu immateriellen Vermögenswerten (vgl. Tab. 9).72
70
Vgl. hierzu die Mitteilung der Deutschen Forschungsstelle für Künstliche Intelligenz (DFKI), abruf-
bar unter http://www.dfki.de/CeBIT2005/dfki_stand.shtml#exfinance (Stand 19.09.2010).
71 Vgl. Henselmann, K./Klein, M./Hartmann, A.: Corporate Finance biz 2010, S. 551.
72 Der Arbeitskreis Immaterielle Vermögenswerte im Rechnungswesen der Schmalenbach Gesellschaft
für Betriebswirtschaft e.V. hat einen Standardisierungsvorschlag für die freiwillige externe Berichter-
stattung über immaterielle Werte vorgelegt. Hierin wird eine Berichterstattung kategorisiert in „Inno-
vation Capital (Patente, Neuproduktrate, etc.)“, „Human Capital (Mitarbeiterzufriedenheit, Fehlzei-
ten, Ausbildung, etc.)“, „Customer Capital (Kundenzufriedenheit, Marktanteil, etc.)“, „Supply Capi-
tal (Schlüssellieferanten, Fertigungszeiten, etc.)“, „Investor Capital (Aktionärsstruktur, etc.)“, „Pro-
cess Capital (Produktqualität, Prozessabläufe, etc.)“, „Location Capital (Medienpräsenz, Standortqua-
lität, etc.)“ vorgeschlagen; vgl. Arbeitskreis Immaterielle Werte im Rechnungswesen der
Schmalenbach-Gesellschaft für Betriebswirtschaft e.V.: DB 2003, S. 1233-1237.
82
Art der Angabe Beispiele
DRS 15.31-15.32 i. V. mit
DRS 15.145-15.147
Angaben zu nicht finanziellen
Leistungsindikatoren
Qualitative Aussagen Pflicht;
sofern diese alleine nicht
ausreichen, sind zusätzlich
quantitative Angaben zu machen
Fluktuationsrate,
Kundenzufriedenheit,
Patentanmeldungen,
Produktqualität, etc.
DRS 15.40-15.42 i. V. mit
DRS 15.153-15.156
Angaben zu Forschung
und Entwicklung
Qualitative Aussagen Pflicht,
Kennzahlen werden empfohlen
Forschungsquote,
Neuproduktrate,
F&E-Intensität, etc.
DRS 15.169-15.173
Angaben zu immateriellen
Vermögenswerten
Qualitative Aussagen und Angabe
von Kennzahlen werden
empfohlen
Rückweisquoten,
Mitarbeiterqualifikation,
Wertschöpfung pro Kunde,
Marktanteilsquoten, etc.
Tab. 9: Faktenwissen im (Konzern-)Lagebericht
Die in den §§ 289 und 315 HGB umrissenen Inhalte wurden hinsichtlich der Angaben
zu den qualitativen Risiken in den letzten Jahren permanent erweitert und für Konzerne
im DRS 15 näher detailliert.73
Durch die Analyse von weichen Kennzahlen der Konkurrenzunternehmen wie bei-
spielsweise der Marktanteilsquote können unscharfe Rückschlüsse auf die Marktstel-
lung des zu analysierenden Zielunternehmens gezogen werden. Verbale Aussagen über
Fluktuationsraten bei den Wettbewerbern können helfen, die Fluktuationssituation (als
Komponente der Mitarbeiterzufriedenheit) beim Zielunternehmen vergleichend einzu-
schätzen und diese mit linguistischen Termen wie „hoch“, „mittel“ oder „niedrig“ zu
definieren.
Auch der jüngst verabschiedete Exposure Draft zum IFRS Management Commentary
fordert künftig von kapitalmarktorientierten Unternehmen Angaben zu nicht finanziel-
len Ressourcen (MC-ED, Tz. 28-32).74
Die Qualität dieses sog. Value Reportings ist aber, insbesondere auch aus Wettbewerbs-
gründen, bisher noch als zurückhaltend einzustufen, sodass durch die manuelle oder
computergestützte Datenanalyse diesbezüglich nur bedingt zusätzliche Erkenntnisse für
73
Im Bundesanzeiger Nr. 27 vom 18.02.2010 (Beilage 27a) ist der DRÄS 5 zur Lageberichterstattung
durch das Bundesministerium der Justiz gem. § 342 Abs. 2 HGB bekannt gemacht worden. Die Neu-
fassung des Standards ist mit einigen vorgezogenen Ausnahmen für nach dem 31.12.2009 beginnen-
de Geschäftsjahre verpflichtend anzuwenden (DRS 15.143). Vgl. hierzu auch Henselmann, K./Klein,
M./Raschdorf, F.: Prognoseeignung, S. 3.
74 Zum Exposure Draft vgl. bspw. Kajüter, P./Guttmeier, M.: DB 2009, S. 2333-2339; Unrein, D.: PiR
2009, S. 260
83
die Wissensbasis zu erwerben sind.75
Externes Faktenwissen sollte daher auch über
Dienstleistungsunternehmen bezogen werden.
Wissenserwerb durch Rückgriff auf externe Dienstleister
Faktenwissen über qualitative Einflussgrößen ist beispielsweise über die Unternehmens-
und Branchendatenbank Dun&Bradstreet (D&B) erhältlich. Aktuell sind hier Informati-
onen über Firmen aus über 200 Ländern gespeichert. Für die tägliche Anreicherung der
Datenbank nutzt D&B unterschiedliche Quellen und verarbeitet jährlich über 200.000
Presse- und Internetinformationen. Die Datenelemente können dann von den potentiel-
len Investoren bzw. den Mitgliedern der Due Diligence mit speziellen Programmen via
Internet extrahiert werden. Neben „Hard Facts“ (Bilanz, GuV-Rechnung) werden insbe-
sondere auch Angaben zu branchen- und länderspezifischen qualitativen Risiken gelie-
fert.76
Darüber hinaus wird durch eine Vielzahl von Anbietern Wissen zu den globalen und
branchenspezifischen Umweltbedingungen (wie etwa Marktumfragen von Marktfor-
schungsinstituten, Trendscouts, Wirtschaftsforschungsinstituten, etc.) bereitgestellt.
Wirtschaftswissenschaftliche und technologiebasierte Datenbanken geben wichtige
Auskünfte über die derzeitige Entwicklung bestimmter unternehmens- bzw. branchen-
spezifischer Erfolgsfaktoren, technologische Neuerungen, demographische Entwicklun-
gen und ähnliche bewertungsrelevante Sachverhalte.77
75
Vgl. bspw. die Arbeiten von Fischer, T. M./Wenzel, J.: Controlling 2004, S. 305-314 sowie den
Überblick in Kaya, D.: Der Konzern 2010, S. 358-365.
76 Abrufbar unter http://www.dnb.com (Stand 02.09.2010). Zu weiteren Datenbankanbietern vgl. bspw.
die Ausführungen und Übersichten in Mertens, P./Meier, M.: Integrierte Informationsverarbeitung,
S. 22-24.
77 Zur Erfolgsfaktorenforschung und deren Einfluss auf den Erfolg bzw. Wert eines Unternehmens vgl.
bspw. Klemm-Bax, S.: Erfolgsfaktoren, S. 7-15; Vanini, U.: WISU 2009, S. 1330-1331 sowie Vater,
H./Meckel, M./Hoffmann, C./Fieseler, C.: DB 2008, S. 2605-2611.
84
4.3 Beispiel zum Wissenserwerb
4.3.1 Faktenwissen
Ausgangsbeispiel:
Die mittelständische Fuzzy Software AG entwickelt Produkte für Finanzdienstleister
sowie für Industrie-, Handels- und Dienstleistungsunternehmen. Die bereitgestellten
Softwarelösungen sind in der Lage, durch Umsetzung der Fuzzy-Set Theorie in der
quantitativen Bilanzanalyse durch Auswertung von Kennzahlen Rückschlüsse auf die
Bonität und das Ausfallrisiko von Firmen- und Privatkunden zu ziehen.78
Darüber hin-
aus beschäftigt sich die AG mit Forschungsprojekten über Fuzzy-gestützte Softwarelö-
sungen, um Unternehmen die Beurteilung der Attraktivität von Marktfeldern (strategi-
sche Frühaufklärung) und von Kundengruppen sowie die Personalplanung zu erleich-
tern.79
Aufgrund der Finanzmarktkrise rechnen viele Investoren mit einer starken Nachfrage
nach solchen Produkten und möchten daher in dieses Erfolg versprechende Geschäfts-
feld einsteigen. Eine auf die Bewertung von mittelständischen Softwareunternehmen
spezialisierte Wirtschaftsprüfungsgesellschaft wird beauftragt, für einen großen Soft-
warekonzern (Akquisiteur) nach Abschluss eines Letters of Intent bei der Fuzzy Soft-
ware AG (Zielunternehmen) eine Due Diligence Review durchzuführen.
In der Wissensbasis der Prüfungsgesellschaft ist im Zusammenhang mit der Bewertung
von Softwareunternehmen bereits folgendes grundsätzliches Faktenwissen gespeichert:
Der Absatz von Softwareprodukten hängt stark von der Qualität und der Verkaufs-
stärke des Vertriebsmanagements ab. Besonders ältere Manager greifen hier auf
größere Erfahrungen im Vertrieb zurück. Junge Unternehmensgründer verfügen
zwar meist über das entwicklungsspezifische technische Know-How, jedoch (noch)
über wenig betriebswirtschaftliches Geschick bei der Vermarktung ihrer Innovatio-
nen.
78
Zu weiteren Anwendungsmöglichkeiten von Fuzzy-Systemen in der Betriebswirtschaft vgl. bspw.
den Literaturüberblick von Popp, H.: Industrie, S. 32-33.
79 Vgl. hierzu Bodjadziev, G./Bodjadziev, M.: Fuzzy Logic for Business; Kratzberg, F.: Fuzzy-
Szenario-Management; Mißler-Behr, M.: Fuzzybasierte Controllinginstrumente; Momsen, B.: Wis-
sensmanagement; Schroll, A.: Fuzzy-Control.
85
Akquisitionsspezifisch ist die Abwanderungsgefahr von Vertriebsprofis zu berück-
sichtigen, da diese meist über einen engen Kontakt zu den vorhandenen Bestands-
kunden und zudem über ein hohes Cross-Selling Potential verfügen. Dabei ist neben
dem Verlust von Bestandskunden ist auch die Akquisition von Neukunden zunächst
als kritisch zu beurteilen. Den Nachfolgern fehlt häufig noch das Verkaufs-Know-
How über die Produktpalette der neuen Unternehmenseinheit.
Hohen Einfluss auf die zukünftige Absatzmenge hat im Softwarebusiness auch die
Wiederkaufrate. Zufriedene Kunden wechseln nur selten ihre Softwareanbieter, da
Updates ohne hohe zusätzliche Implementierungskosten durchgeführt werden kön-
nen und somit auch hohe Schulungskosten entfallen. Dies gilt insbesondere bei häu-
figem und personalintensivem Einsätzen solcher Programme wie beispielsweise im
Rahmen der Kreditberatung und der Insolvenzprognose.
Ebenfalls einen hohen Einfluss auf die Absatzmenge hat die Teilnahme und marke-
tingspezifische Mitwirkung von Mitarbeitern an Kongressen potentieller Zielkun-
den, wie beispielsweise an Bankfachtagungen, Handelskammertagungen und ähnli-
chem. Darüber hinaus fördern Publikationen über Fuzzy-basierte Anwendungsmög-
lichkeiten in einschlägigen Fachzeitschriften das Interesse und die Aufmerksamkeit
hinsichtlich solcher „Soft Computing“ Produkte. Ebenso wichtig ist des Weiteren
das Monitoring des Unternehmens durch die passive Berichterstattung von Dritten,
wie beispielsweise Fachzeitschriften, Internetveröffentlichungen oder sonstigen pu-
blizierten Werken (sog. Medienecho). Entsprechend stark kann durch die negative
bzw. positive Berichterstattung das Image eines Unternehmens beeinflusst werden.
Neben der Medienpräsenz spielen auch Kooperationen mit Hochschulen und ähnli-
chen IT-spezifischen Bildungseinrichtungen eine wesentliche Rolle. Vergünstigte
Studenten- und Forschungsabonnements sind für den Bekanntheitsgrad der Soft-
wareprodukte ebenso förderlich wie kostenlos angebotene Schulungen oder ange-
nommene Lehraufträge durch Repräsentanten der jeweiligen Softwareschmiede.
Alle in der Wissensbasis gespeicherten Aspekte wurden eingehend und sorgfältig in den
Workshops der Due Diligence Review durchleuchtet und unter Berücksichtigung des
speziellen Sachverhalts im Fuzzy Business Risk Model wiedergegeben.
86
Die Absatzmenge von Softwareprodukten (unscharfe Zielgröße ek bzw. scharfe Größe
des Business Risk Models) des Zielunternehmens hängt demzufolge von folgenden un-
scharfen Einflussgrößen ei ab:
der Verkaufsstärke des Vertriebsmanagements,
der Abwanderungsgefahr von Vertriebsprofis,
der Wiederkaufrate,
dem Umfang der Marketingmaßnahmen (z.B. Teilnahme an Kongressen und „indi-
rekte“ Werbung durch Publikationen firmeneigener Mitarbeiter),
dem Presseecho (z.B. Empfehlungen in Fachzeitschriften),
dem Umfang der Kooperationen mit Hochschulen und ähnlichen IT-spezifischen
Bildungseinrichtungen.
Nachdem der Due Diligence Review die wesentlichen unscharfen Einflussgrößen ei
identifiziert und die Abhängigkeitsbeziehungen aufgedeckt hat, bietet es sich im
nächsten Schritt an, das im Fuzzy Business Risk Model verankerte Faktenwissen gra-
phisch darzustellen. Durch die graphische Darstellung soll insbesondere die Verbindung
des Fakten- mit dem Regelwissen sichtbar werden (vgl. Abb. 14).
4.3.2 Regelwissen
Das Regelwissen beinhaltet die Kenntnisse über das Zusammenwirken verschiedener
unscharfer Einflussgrößen ei. Um diese Zusammenhänge verknüpfen zu können, sind
die unscharfen Einflussgrößen ei unter Zuhilfenahme sog. Regelblöcke zu aggregieren.
Dabei kann das aggregierte Ergebnis eines Regelblocks wiederum als unscharfe Ein-
flussgröße Bestandteil eines übergeordneten Regelblocks sein. Der Ausgang eines Re-
gelblocks stellt damit quasi eine aggregierte, unscharfe (Zwischen-)Ergebnisgröße ek
(und damit eine Teil-Fuzzy-Menge) einzeln verknüpfter unscharfer Einflussgrößen ei
dar.
Welche unscharfen Einflussgrößen ei zu einem Regelblock aggregiert werden bzw. wie
viele Regelblöcke zu modellieren sind, ist Bestandteil des Regelwissens. Ausgehend
von der scharfen Plangröße des Business Risk Models (Absatzmenge_zus) sind zu-
nächst die unscharfen Einflussgrößen ei des obersten Regelblocks zu ermitteln und auf
die niedrigste Aggregationsebene herunterzubrechen. Anschließend werden die Ergeb-
87
nisse dieser retrograden Risikoidentifikation miteinander verknüpft und über mehrere
Ebenen (Regelblöcke) aggregiert.
Eine wichtige Aufgabe kommt den Mitgliedern des Due Diligence Teams im Zuge der
Formulierung der sog. WENN ... DANN ... - Regelsätze zu.80
Fortsetzung des Ausgangsbeispiels:
Auf die Kundentreue wirkt zum einen der publike Einfluss (Publik), zum anderen
die Wiederkaufrate.
Der publike Einfluss (Publik) wiederum ermittelt sich aus den unscharfen Einfluss-
größen Presseecho und den Marketingmaßnahmen (Marketing). Damit stellt Regel-
block 2 zur Ermittlung der Kundentreue (= Ergebnis des Regelblocks 3) die unterste
Hierarchieebene dar.
Die Managementqualität (Management), d.h. das Ergebnis des Regelblocks 1, wird
durch die beiden unscharfen Einflussgrößen Abwanderungsgefahr (Abwanderung)
und Berufserfahrung bestimmt.
Die Ergebnisse des Regelblocks 1 und des Regelblocks 3 gehen als unscharfe Ein-
flussgrößen ei (= zugleich unscharfe (Zwischen-)Ergebnisgrößen ek) in den Regel-
block 4 ein. Dieser bildet somit den obersten Regelblock, der die unscharfe (Ge-
samt-)Ergebnisgröße (d.h. die gesamte Fuzzy-Menge) enthält, welche sich aus allen
qualitativen Einflussgrößen des Fuzzy Business Risk Models ermittelt.
Abb. 14: Graphische Darstellung des Fakten- und Regelwissens
80
Vgl. allgemein Schroll, A.: Fuzzy-Control, S. 138.
88
Entsprechende WENN ... DANN ... - Regelsätze eines Regelblocks könnten beispiels-
weise durch die Mitglieder der Due Diligence Workshops wie folgt formuliert werden:
„WENN die Kundentreue und die Managementqualität hoch sind, DANN wirkt sich
dies auch positiv im Sinne einer zusätzlichen Absatzmenge aus.“
„WENN die Marketingmaßnahmen hoch sind und das Presseecho positiv ist, DANN
ist auch der publike Einfluss positiv.“
„WENN der publike Einfluss positiv ist und eine hohe Wiederkaufrate vorliegt,
DANN ist die Kundentreue hoch.“
Daneben sind durch die Workshops auch folgende zwei Fragen zu beantworten:
Welche Einflussstärke (hoch oder niedrig) haben die unscharfen Einflussgrößen ei
auf einen Regelblock?
Welche Einflussrichtung (positiv oder negativ) haben die unscharfen Einflussgrößen
ei auf einen Regelblock?
Die meisten Fuzzy-basierten Softwaretools bieten hier zahlreiche Optionen an. Durch
entsprechende Regler, die die Einflussstärke und -richtung auf das Intervall [-1;+1]
normieren, sind die unscharfen Einflussgrößen entsprechend zu gewichten.81
Ein Wert
von -1 bewirkt einen vollständig negativen Einfluss, ein Wert von +1 einen vollständig
positiven Einfluss auf die Ergebnisgröße des Regelblocks.
Zur Ermittlung der Managementqualität (Regelblock 1) könnte der Berufserfahrung
theoretisch eine höhere Bedeutung als der Abwanderungsgefahr beigemessen werden.
Eine hohe Abwanderungsgefahr wirkt negativ auf die Managementqualität, während
eine hohe Berufserfahrung positive Auswirkungen auf die Managementqualität hat. Alle
nachfolgenden Einflussrichtungen und -stärken dieser Arbeit werden entweder als sehr
negativ (-1) oder sehr positiv (+1) unterstellt. Zwischenwerte, die einzelnen unscharfen
Einflussgrößen ei ein geringeres Gewicht zuweisen, werden nicht gesetzt, sind in bewer-
tungsspezifischen Anwendungen aber generell möglich (vgl. Abb. 14 und Tab. 10).
81
Die hier eingesetzte Software fuzzyTECH® bietet einen Reglerschieber an, durch den der Einfluss
einer unscharfen Einflussgröße auf das Ergebnis eines Regelblocks im Intervall [-1;+1] festgelegt
werden kann; vgl. FuzzyTech: Benutzerhandbuch, S. 51. Darüber hinaus können die unscharfen Ein-
flussgrößen eines Regelblocks auch generell deaktiviert werden.
89
unscharfe Einflussgröße ei Einflussrichtung u. Einflussstärke Einwirkung auf den Regelblock
Abwanderungsgefahr sehr negativ (-1)
Managementqualität (Regelblock 1)
Berufserfahrung sehr positiv (+1)
Marketing sehr positiv (+1)
publiker Einfluss (Regelblock 2)
Presseecho sehr positiv (+1)
publiker Einfluss sehr positiv (+1)
Kundentreue (Regelblock 3)
Wiederkaufrate sehr positiv (+1)
Management sehr positiv (+1)
Absatzmenge (Regelblock 4)
Kundentreue sehr positiv (+1)
Tab. 10: Festlegung der Einflussrichtung und Einflussstärke
Nachdem die unscharfen Einflussgrößen im Fuzzy Business Risk Model abgebildet
wurden, müssen die jeweiligen Größen bewertet werden. Hierzu sind zunächst mehrere
grundlegende Aufgaben zu bewältigen.
5 Fuzzyfizierung der qualitativen Risiken
5.1 Grundlegende Aufgaben
5.1.1 Festlegung des Typs der Zugehörigkeitsfunktion
Der Typ der Zugehörigkeitsfunktion entscheidet darüber, wie die Werte auf der Abszis-
se (z.B. scharfe Basisvariable aus dem Kundenzufriedenheitsindex der Balanced
Scorecard) in eine Fuzzy-Zahl, d.h. in einen Zugehörigkeitsgrad, umgerechnet werden.
Obwohl in der allgemeinen Fuzzy-Literatur mehrere Funktionstypen diskutiert wer-
den,82
sollten im Rahmen betriebswirtschaftlicher Anwendungen ausschließlich lineare
Bandpass-Typen, lineare S- und Z-Funktionen (sog. lineare Hochpass und Tiefpass-
Typen) sowie Kombinationen daraus verwendet werden.
Unter Bandpass-Typen versteht man Funktionstypen, bei denen die Zufriedenheit des
Entscheidungsträgers bis zu einer akzeptierten Grenze zunimmt (= Zugehörigkeitsgrad
1) und danach wieder abnimmt (wie bei der Dreiecks- und Trapezfunktion). Bei den
82
Vgl. Rommelfanger, H.: OR Spektrum 15/1993, S. 31-42.
90
Hoch- bzw. Tiefpass-Typen nehmen die Funktionsverläufe kontinuierlich bis zum Zu-
gehörigkeitsgrad 1 zu (lineare S-Funktion) bzw. ausgehend vom Grad 1 ab (lineare Z-
Funktion).83
Insofern gleichen sie damit einer halbierten Trapezfunktion (vgl. Abb. 15).
Abb. 15: Lineare, kombinierte Funktion aus Bandpass-Typ („niedrig“, „mittel“, „hoch“), Hochpass-
Typ (lineare S-Funktion, „sehr hoch“) und Tiefpass-Typ (lineare Z-Funktion, „sehr niedrig“)
Lineare Typen verzichten auf Parameter. Parametrisierte nicht-lineare Funktionen wer-
den hingegen immer dann eingesetzt, wenn man die Zugehörigkeitsgrade – wie bei rein
technischen Anwendungen üblich – möglichst exakt angeben will.84
Im Rahmen be-
triebswirtschaftlicher Anwendungen, wie beispielsweise im Zusammenhang mit der
Bewertung qualitativer Risiken, wird man diese exakten Angaben aber eben nicht ma-
chen können. Vielmehr erscheint eine Widerspiegelung von Tendenzen anstelle punkt-
genauer Schätzungen völlig ausreichend.85
Darüber hinaus besitzen universelle, leicht verständliche und nachvollziehbare Zugehö-
rigkeitsfunktionstypen für betriebswirtschaftliche Anwendungen den Vorteil, dass auch
die Anzahl der erforderlichen linguistischen Terme überschaubar bleibt und damit dem
Entscheidungsträger (z.B. einem potentiellen Käufer) keine übertriebene Scheingenau-
igkeit vorgespiegelt wird.86
Grundsätzlich sollte – zur Optimierung des Kosten-Nutzen-Verhältnisses – für alle Be-
wertungsvorgänge und Regelblöcke der gleiche Zugehörigkeitsfunktionstyp festgelegt
werden. Abb. 8 (Dreiecksfunktion als linearer Bandpass-Typ) und Abb. 15 (linearer
83
Vgl. hierzu ausführlich Klemm-Bax, S.: Erfolgsfaktoren, S. 39-41.
84 Vgl. Erben, R. F.: Fuzzy-Logic, S. 83.
85 Ähnlich Klemm-Bax, S.: Erfolgsfaktoren, S. 43-44.
86 Vgl. Erben, R. F.: Fuzzy-Logic, S. 83.
91
Mischtyp) zeigen mögliche und häufig in betriebswirtschaftlichen Anwendungen einge-
setzte Varianten.
5.1.2 Festlegung der linguistischen Terme
Nach Festlegung des Zugehörigkeitstyps sind die Anzahl und die jeweiligen Bezeich-
nungen der festzulegenden Terme einer linguistischen Variable zu bestimmen.
Bei der Wahl der Terme ist zur Wahrung der Übersichtlichkeit darauf zu achten, dass
nicht zu viele Ausprägungen festgelegt werden. In der Regel sind für betriebswirtschaft-
liche Anwendungen drei bis fünf Terme empfehlenswert.87
Die jeweiligen
Workshopleiter haben dafür zu sorgen, dass die Anzahl der Terme das Meinungsbild
des gesamten Due Diligence Teams widerspiegelt.
5.1.3 Festlegung der Definitionsbereiche
Nach Festlegung der Terme sind diese mit Definitionsbereichen zu versehen. Damit
spiegelt ein bestimmter Abschnitt einer auf der Abszisse abgetragenen und normierten
scharfen Basisvariable (z.B. Kundenzufriedenheit) einen bestimmten Term wider.
Zur Festlegung der Definitionsbereiche empfiehlt sich in Anlehnung an Henselmann/
Klein die modifizierte Delphi-Methode (vgl. Abb. 16).88
Je nach Situation können ext-
reme Schätzungen in den Einzelinterviews der einzelnen Workshops (z.B. Human Re-
sources Due Diligence) dazu genutzt werden, die Definitionsbereiche der
Termausprägungen einer unscharfen Einflussgröße (z.B. Managementqualität) festzule-
gen. Bei extremen Abweichungen sollte nochmals ein Feedback des gesamten Due Di-
ligence Teams eingeholt werden, sofern der Schätzer im Einzelinterview seine extreme
Abweichung vernünftig begründen kann.
Bei Festlegung der Definitionsbereiche empfiehlt es sich, bei reellwertigen Ausprägun-
gen linguistischer Variablen (beispielsweise Managementqualität in Punkten) als erstes
in Einzelinterviews nach dem Gipfelpunkt (Dreiecksfunktion) bzw. dem Teilintervall
(Trapezfunktion) zu fragen, der bzw. das am besten der verbal beschriebenen Ausprä-
87
Vgl. Kratzberg, F.: Fuzzy-Szenario-Management, S. 124.
88 Vgl. Henselmann, K./Klein, M.: M&A Review 2010, S. 362.
92
gung des Terms entspricht.89
Anschließend sind die Punkte auf der Basisvariablen zu
schätzen, die nicht mehr mit dem jeweiligen linguistischen Term vereinbar sind. Die
Einschätzungen sind verbal zu begründen. Bei der Befragung ist darauf zu achten, dass
die Fragestellung möglichst konkret und eindeutig formuliert wird, um zu große Varian-
zen zu vermeiden.90
unscharfe
Einflussgrößen(Human Resources
Due Diligence)
Workshop im
Human Resources
Due Diligence
Team
Einzelinterview
mit jedem
Teammitglied
des Workshops
Auswertung der
Einzelinterviews
Rückkopplung bei erheblichen Abweichungen in den Einzelinterviews
unscharfe
Einflussgrößen(Legal
Due Diligence)
Auswertung der
Einzelinterviews
Einzelinterview
mit jedem
Teammitglied des
Workshops
Workshop im
Legal
Due Diligence
Team
Rückkopplung bei erheblichen Abweichungen in den Einzelinterviews
unscharfe
Einflussgrößen(Human Resources
Due Diligence)
Workshop im
Human Resources
Due Diligence
Team
Einzelinterview
mit jedem
Teammitglied
des Workshops
Auswertung der
Einzelinterviews
Rückkopplung bei erheblichen Abweichungen in den Einzelinterviews
unscharfe
Einflussgrößen(Legal
Due Diligence)
Auswertung der
Einzelinterviews
Einzelinterview
mit jedem
Teammitglied des
Workshops
Workshop im
Legal
Due Diligence
Team
Rückkopplung bei erheblichen Abweichungen in den Einzelinterviews
Abb. 16: Ablauf der Expertenschätzungen im Due Diligence Prozess
(in Anlehnung an Henselmann, K./Klein, M.: M&A Review 2010, S. 363)
Beispiel:
Zur Bestimmung des Definitionsbereichs des linguistischen Terms „hohe“ Manage-
mentqualität werden drei Mitglieder des Workshops „Human Resources Due Diligence
Team“ befragt, die über eine hinreichend große Erfahrung in Personalangelegenheiten
verfügen. In den geführten Einzelinterviews weisen die drei Mitglieder auf einer Skala
von 0 (extrem schlechte Managementqualität) bis 100 Punkten (extrem hohe Manage-
mentqualität) dem Term „hohe“ Managementqualität Teilintervalle von 75-85, 80-90
bzw. 79-87 Punkten zu. Der Bereich, in dem sich die Einschätzungen decken (80-85
Punkte) könnte als Basis für das Fuzzy-Intervall mit dem Zugehörigkeitsgrad 1 festge-
legt werden. Die Spreizungen stellen die beiden Extrempunkte (75 Punkte, 90 Punkte)
dar, sodass sich ein trapezförmiger Funktionsverlauf ergibt. Bei zu starken Ausprägun-
gen der Extrempunkte müsste – sofern diese gut begründet werden können – per Rück-
89
Vgl. allgemein Hönerloh, A.: Unscharfe Simulation, S. 50-52.
90 Vgl. allgemein zu dieser Technik Erben, R. F.: Fuzzy-Logic, S. 76.
93
kopplung eine erneute Befragung durchgeführt werden. Ähnlich geht man bei den rest-
lichen Termen zur Festlegung der übrigen Intervalle vor.
Anstelle eines Intervalls können je Term auch drei einzelne Zahlen der scharfen Basis-
variablen angegeben werden, wobei die mittlere den Zugehörigkeitsgrad 1 repräsentiert.
Die beiden Zahlen links und rechts stellen dann die Anknüpfungspunkte für die Spann-
weiten dar, sodass sich eine lineare Dreiecksfunktion ergibt.91
5.2 Ermittlung der Zugehörigkeitsgrade
5.2.1 Ordinalskalierte Ausprägungen
Im Rahmen der Fuzzyfizierung ist zu berücksichtigen, dass bei einzelnen unscharfen
Einflussgrößen bzw. qualitativen Risiken die Festlegung von Zugehörigkeitsfunktionen
und damit von Definitionsbereichen nicht notwendig ist. Abhängig ist dies davon, wie
die Ermittlung der Zugehörigkeitsgrade in der Due Diligence erfolgt.
Bei ordinalskalierten Ausprägungen sind die Zugehörigkeitsgrade aller festgelegten
linguistischen Terme direkt, d.h. bereits fuzzyfiziert (also im Intervall [0;1]) zu ermit-
teln.92
Eine Zugehörigkeitsfunktion und entsprechende Definitionsbereiche müssen so-
mit nicht gebildet werden.
Hierzu ist zunächst jedes Teammitglied des jeweiligen Workshops im Einzelinterview
nach seiner individuellen Einschätzung zu befragen und diese ggf. in der Gruppe kri-
tisch zu hinterfragen (modifizierte Delphi-Methode, vgl. Kap. 5.1.3). Um zu einer
Gruppeneinschätzung zu gelangen, müssen die als Zugehörigkeitsgrad angegebenen
Zahlen durch eine Durchschnittsbildung gemittelt werden. Alternativ können aus Kos-
ten-Nutzen-Aspekten bzw. bei ausreichend großer Erfahrung die Werte auch durch die
jeweiligen Workshopleiter direkt festgelegt werden. Zur Unterstützung der Einschät-
zung durch das Team bzw. durch die Workshopleiter dient u.a. das in der Wissensbasis
gespeicherte Faktenwissen.
91
Vgl. Klemm-Bax, S.: Erfolgsfaktoren, S. 47. Ähnlich Schroll, A.: Fuzzy-Control, S. 104.
92 In der Literatur werden allgemein axiomatische, experimentelle und heuristische Verfahren disku-
tiert, die teilweise sehr aufwendig sind und damit für die Unternehmensbewertung nicht als geeignet
erscheinen; vgl. hierzu Klemm-Bax, S.: Erfolgsfaktoren, S. 34-37.
94
Fortsetzung des Ausgangsbeispiels:
Die Ausprägungen der unscharfen Einflussgröße Presseecho werden beim Zielun-
ternehmen (Fuzzy Software AG) nach einer durchgeführten empirischen Erhebung
(„Web Content Mining“) von den Mitgliedern des beauftragten Market Due Dili-
gence Teams separat erhoben und anschließend arithmetisch gemittelt. Als linguisti-
sche Terme, denen jeweils Werte im Intervall [0;1] zuzuordnen sind, werden die
Ausprägungen „negativ groß“, „negativ“, „null“, „positiv“ und „positiv groß“ for-
muliert.
Die Einschätzung der linguistischen Variablen Abwanderungsgefahr wird individu-
ell durch den Workshopleiter der Human Resources Due Diligence und damit eben-
falls ohne Zugehörigkeitsfunktion und Definitionsbereiche festgelegt, nachdem die-
ser die entsprechenden Manager des Zielunternehmens interviewt hat. Hierzu hat
der Workshopleiter für die drei formulierten Terme „niedrig“, „mittel“, „hoch“ ent-
sprechende Einschätzungen abzugeben.
5.2.2 Reellwertige Ausprägungen
Bei reellwertigen Ausprägungen ist in der Due Diligence zunächst ein scharfer Wert zu
ermitteln, der vor dem Hintergrund des festgelegten Typs der Zugehörigkeitsfunktion
und deren Definitionsbereiche anschließend – durch Rückgriff auf das in der Wissens-
basis gespeicherte Faktenwissen – fuzzyfiziert wird.
Hier bieten sich die aus der traditionellen Bewertung oder Unternehmensführung be-
kannten Scoringbögen an (beispielsweise zur Beurteilung der Kundenzufriedenheit).93
Dies hat insbesondere den Vorteil, dass sich damit aufwändige und zeitraubende Grup-
peneinschätzungen der einzelnen Teams bzw. Workshops erübrigen.
Das Wissen über diese scharfen Werte kann evtl. auch über eine bereits im Zielunter-
nehmen vorhandene Balanced Scorecard ermittelt werden, aus der sich entsprechend
scharfe Kennzahlen (= scharfe Basisvariablen) ableiten lassen (vgl. Kap. 2.3).
93
Zur Ermittlung weicher Risikofaktoren (bspw. Fluktuation, Kundenzufriedenheit, etc.) bestehen be-
reits seit längerem eine Reihe leistungsstarker Softwareprogramme, die mit den Fuzzy-Tools kombi-
niert werden können, vgl. bspw. Mosiek, T.: ZfCM 2003, S. 15-18.
95
Fortsetzung des Ausgangsbeispiels:
Die linguistische Variable Marketing wird mit den fünf Termen „sehr niedrig“,
„niedrig“, „mittel“, „hoch“, „sehr hoch“ umschrieben. Die Marketingaktivität wird
beim Zielunternehmen (Fuzzy Software AG) durch eine Kennzahl der im Risiko-
controlling eingesetzten Balanced Scorecard gemessen und dabei auf einen Bereich
zwischen 0 und 100 Punkten normiert. Entsprechend wird – nach Rückgriff auf das
in der Wissensbasis gespeicherte Faktenwissen – durch die Market/Strategic Due
Diligence in Schritten von 20 Punkten eine entsprechende Einteilung des Definiti-
onsbereichs vorgenommen (z.B. 0-20 Punkte bedeutet laut Faktenwissen eine „sehr
niedrige“ Marketingaktivität) und anschließend der scharfe Wert in eine Fuzzy-Zahl
(Zugehörigkeitsgrad) umgerechnet.
Die unscharfe Einflussgröße bzw. linguistische Variable Wiederkaufrate wird durch
die Market/Strategic Due Diligence auf einer Skala von 0 bis 100 Prozent unter-
nehmensspezifisch durch einen Scoringbogen ermittelt und mit drei Definitionsbe-
reichen unterlegt. Als linguistische Terme werden durch den Workshop die Ausprä-
gungen „klein“, „mittel“, „groß“ vorgeschlagen, die jeweils einen gleich großen De-
finitionsbereich aufweisen (z.B. entspricht ein Prozentwert bis 33% einer kleinen
Wiederkaufrate).
Für die Abschätzung der unscharfen Einflussgröße Berufserfahrung werden mittels
einer Skala (0 bis 40 Jahre) und den Termen „niedrig“, „mittel“, „hoch“ die entspre-
chenden, in der Wissensbasis gespeicherten Definitionsbereiche zugeordnet (vorlie-
gendes Faktenwissen). Die Berufserfahrung des Managements in Jahren wird durch
den Workshopleiter der Human Resources Due Diligence durch eine entsprechende
Managementbefragung erhoben.
Nach Festlegung der Anzahl sowie der Bezeichnungen der Terme und ggf. der Definiti-
onsbereiche ergibt sich für die fünf unscharfen Einflussgrößen bzw. linguistischen Vari-
ablen das in Tab. 11 dargestellte Bild. Terme linguistischer Variablen, die ohne Zugehö-
rigkeitsfunktion und Definitionsbereiche ermittelt wurden (ordinalskaliert), werden in
den Tabellen mit dem Symbol hinterlegt. Bei reellwertigen Erhebungen von Zuge-
hörigkeitsgraden wird das Symbol herangezogen.
96
Nr.
linguistische
Variable/
unscharfe
Einflussgröße
Typ Einheit
Definitionsbereich
Termmenge
min max
1 Abwanderungs-
gefahr - - -
niedrig
mittel
hoch
2 Berufserfahrung Jahre 0 40 niedrig
mittel
hoch
3 Marketing Punkte 0 100
sehr_niedrig
niedrig
mittel
hoch
sehr_hoch
4 Presseecho - - -
negativ_groß
negativ
null
positiv
positiv_groß
5 Wiederkaufrate Prozent 0 100 klein
mittel
groß
Tab. 11: Festzulegende Eingangsvariablen des Fuzzy Business Risk Model
Nach Durchführung der Due Diligence konnte die beauftragte Wirtschaftsprüfungsge-
sellschaft bei der Fuzzy Software AG (Zielunternehmen) annahmegemäß folgende fünf
Datenreihen (unterschiedliche Szenarien) erheben, die jeweils andere Situationen hin-
sichtlich der unscharfen Einflüsse darstellen (vgl. Tab. 12).
In Abhängigkeit des Szenarios (S1 bis S5) ergeben sich nachfolgend fünf unterschiedli-
che Risikosituationen mit entsprechenden Auswirkungen auf die jeweilige Gesamter-
gebnisgröße im Businessplan.
97
Nr.
linguistische
Variable/
unscharfe
Einflussgröße
Typ Term/
Einhheit S1 S2 S3 S4 S5
1 Abwanderungs-
gefahr
niedrig 0,25 0,05 0,80 0,20 0,15
mittel 0,17 0,61 0,10 0,34 0,15
hoch 0,03 0,19 0,00 0,77 0,15
2 Berufserfahrung Jahre 17 9 34 23 5
3 Marketing Punkte 60 40 78 15 24
4 Presseecho
negativ_groß 0,05 0,74 0,00 0,05 0,6
negativ 0,22 0,19 0,00 0,09 0,5
null 0,34 0,08 0,23 0,70 0,2
positiv 0,19 0,00 0,45 0,52 0,0
positiv_groß 0,02 0,00 0,09 0,19 0,0
5 Wiederkaufrate Prozent 23 61 50 21 44
Tab. 12: Ergebnisse des Due Diligence Prozesses
5.2.3 Erfülltheitsgrade als Zugehörigkeitsgrade
Im Rahmen der Fuzzy-basierten Bewertung der qualitativen Risiken sind mehrere Re-
gelblöcke im Fuzzy Business Risk Model zu durchlaufen. Dies bedeutet, dass nicht für
jede unscharfe Einflussgröße ei eines Regelblocks Zugehörigkeitsgrade ermittelt werden
müssen, da sich diese bereits als unscharfe (Zwischen-)Ergebnisgröße ek eines vorgela-
gerten Regelblocks ergeben können. Man spricht hierbei von Erfülltheitsgraden.
Mit anderen Worten, Erfülltheitsgrade einer unscharfen (Zwischen-)Ergebnisgröße ek
eines vorgelagerten Regelblocks können gleichzeitig die Zugehörigkeitsgrade einer un-
scharfen Einflussgröße ei für einen nachgelagerten Regelblock liefern. Dennoch müssen
– analog zu den „klassischen“ unscharfen Einflussgrößen ei – auch diese in der Due
Diligence mit Zugehörigkeitsfunktionen, entsprechenden Termausprägungen und Defi-
nitionsbereichen versehen werden.
98
Fortsetzung des Ausgangsbeispiels:
Die Erfülltheitsgrade der Managementqualität (unscharfes Zwischenergebnis des vorge-
lagerten Regelblocks 1) sowie der Kundentreue (unscharfes Zwischenergebnis des vor-
gelagerten Regelblocks 3) fließen als Zugehörigkeitsgrade in den Regelblock 4 (Ab-
satzmenge_zus) ein. Die Erfülltheitsgrade des publiken Einflusses (Regelblock 2) flie-
ßen als Zugehörigkeitsgrade in den nachgelagerten Regelblock 3 zur Ermittlung der
Kundentreue ein (vgl. hierzu auch Abb. 14). Die Definitionsbereiche und Termmengen
wurden für diese drei unscharfen Zwischenergebnisgrößen bzw. unscharfen Einfluss-
größen wie folgt definiert:
Regel-
block
unscharfe Zwischen-
ergebnisgröße ek
=
unscharfe
Einflussgröße ei
Typ Einheit
Definitionsbereich
Termmenge
min max
1 Management-
qualität Punkte 0 100
niedrig
mittel
hoch
2 publiker Einfluss Punkte -100 100
negativ_groß
negativ
null
positiv
positiv_groß
3 Kundentreue Punkte 0 100
sehr_niedrig
niedrig
mittel
hoch
sehr_hoch
Tab. 13: Definitionsbereiche und Termmengen der unscharfen Zwischenergebnisgrößen
Im Rahmen der Due Diligence müssen des Weiteren auch der unscharfen Gesamtergeb-
nisgröße ek des obersten Regelblocks ein Zugehörigkeitsfunktionstyp, entsprechende
Termausprägungen und Definitionsbereiche zugeordnet werden (vgl. Tab. 14).
99
Regel-
block
unscharfe
Ergebnisgröße ek
Typ Einheit
Definitionsbereich
Termmenge
min max
4 zusätzliche
Absatzmenge Prozent -10 10
negativ_groß
negativ
null
positiv
positiv_groß
Tab. 14: Definitionsbereich und Termmenge der unscharfen Gesamtergebnisgröße
Insbesondere die Festlegung der Basis der unscharfen Ergebnisgröße des obersten Re-
gelblocks (Regelblock 4: Absatzmenge_zus) erfordert von den Bewertenden ein hohes
Maß an Sachverständnis und tiefergehende Branchenkenntnisse. Da die Größe das agg-
regierte qualitative Risikopotential darstellt und später als scharfer Wert bzw. als schar-
fe Verteilung in die Businessplanung einfließt, hängt das qualitative Risikoprofil eines
Zielunternehmens auch maßgeblich von der Gestaltung der linguistischen Variablen des
obersten Regelblocks ab.
Der Nachteil der verzweigt wirkenden qualitativen Risiken bzw. ihrer einzelnen Ein-
flussgrößen ei liegt darin, dass häufig keine empirisch verlässliche Möglichkeit besteht,
bestimmte Einflüsse und deren Auswirkungen auf den Zahlungsstrom bzw. das Ergeb-
nis isoliert darzustellen (beispielsweise „Wie viel Prozent Umsatzverlust sind auf die
Rufschädigung zurückzuführen?“, „Ist der Umsatzeinbruch auf kulturelle Unterschiede
zurückzuführen?“).
5.3 Formulierung der Regelsätze und Zuordnung der Zugehörig-
keitsgrade
Den Mittelpunkt des Fakten- und Regelwissens bildet das sog. Schließen.94
Dadurch
wird beschrieben, wie durch Rückgriff auf die formulierten WENN ... DANN ... - Re-
gelsätze eines Regelblocks eine Schlussfolgerung, die sog. Konklusion, aus einem vor-
handenen Faktenwissen gezogen werden kann.95
94
Vgl. allgemein Kahlert, J./Frank, H.: Fuzzy-Logik, S. 43.
95 Vgl. Beemelmann, T.: Fuzzy-Systems, S. 171.
100
WENN ... DANN ...
(Regelwissen):
Regelsatz 1:
WENN die Wiederkaufrate „niedrig“ ist, DANN ist die Kundentreue „niedrig“.
Regelsatz 2:
WENN die Wiederkaufrate „befriedigend“ ist, DANN ist die Kundentreue „befriedigend“.
Regelsatz 3:
WENN die Wiederkaufrate „hoch“ ist, DANN ist die Kundentreue „hoch“.
Faktum
(Faktenwissen): Die Wiederkaufrate des Zielunternehmens ist „hoch“.
Schlussfolgerung
(Konklusion): Die Kundentreue des Zielunternehmens ist „hoch“. (= Regelwissen gem. Regelsatz 3)
Tab. 15: Beispiel für Unscharfes Schließen
Das Schließen kann auch auf unscharfe Einflussgrößen ei erweitert werden (vgl. Tab.
15).
Fortsetzung des Ausgangsbeispiels:
Anhand des in Abb. 14 dargestellten Regelblocks 4 mit den beiden unscharfen Einfluss-
größen Kundentreue und Managementqualität leitet sich beispielsweise aus der Wis-
sensbasis das in Tab. 16 dargestellte Regelwissen hinsichtlich ihrer Auswirkungen auf
die unscharfe Ergebnisgröße des Fuzzy Business Risk Models (Absatzmenge_zus) ab.
Regelsätze
(Regelbasis)
unscharfe Einflussgrößen ei unscharfe Ergebnisgröße ek
(Fuzzy Business Risk Model)
WENN DANN
Kundentreue Managementqualität zusätzliche Absatzmenge
1 sehr hoch hoch positiv_groß
2 sehr hoch mittel positiv
3 sehr hoch niedrig null
4 hoch hoch positiv
5 hoch mittel positiv
6 hoch niedrig null
7 mittel hoch null
8 mittel mittel null
9 mittel niedrig negativ
10 niedrig hoch null
11 niedrig mittel negativ
12 niedrig niedrig negativ
13 sehr niedrig hoch null
14 sehr niedrig mittel negativ
15 sehr niedrig niedrig negativ_groß
Tab. 16: Regelsätze und Regelbasis des Regelblocks 4
101
Mit drei bzw. fünf unterstellten Termausprägungen der beiden unscharfen Einflussgrö-
ßen ei setzt sich der Regelblock aus insgesamt 15 Regelsätzen (= 3*5) zusammen. Alle
Regelsätze eines Regelblocks bilden die sog. Regelbasis. Welche und wie viele
Termausprägungen Verwendung finden, wurde bereits im Rahmen der Darstellung der
Due Diligence Arbeiten zur Fuzzyfizierung erläutert (vgl. Kap. 5.1.2).
Den unscharfen Einflussgrößen ei eines jeden Regelblocks sind abschließend die in der
Due Diligence bzw. die als Erfülltheitsgrade ermittelten Zugehörigkeitsgrade zuzuord-
nen.
Fortsetzung des Ausgangsbeispiels:
Annahmegemäß sind der Regelbasis des Regelblocks 4 als Erfülltheitsgrade errechnete
Zugehörigkeitsgrade für die Kundentreue von 0,7 (niedrig) und von 0,3 (mittel) zuzu-
ordnen. Für die Managementqualität wurde entsprechend ein Zugehörigkeitsgrad von
0,2 (hoch) und von 0,8 (mittel) ermittelt. Damit ergibt sich folgendes Bild:
Regelsätze
(Regelbasis)
unscharfe Einflussgrößen ei unscharfe Ergebnisgröße ek
(Fuzzy Business Risk Model)
WENN DANN
Kundentreue Managementqualität zusätzliche Absatzmenge
1 sehr hoch (-) hoch (0,2) positiv_groß
2 sehr hoch (-) mittel (0,8) positiv
3 sehr hoch (-) niedrig (-) null
4 hoch (-) hoch (0,2) positiv
5 hoch (-) mittel (0,8) positiv
6 hoch (-) niedrig (-) null
7 mittel (0,3) hoch (0,2) null
8 mittel (0,3) mittel (0,8) null
9 mittel (0,3) niedrig (-) negativ
10 niedrig (0,7) hoch (0,2) null
11 niedrig (0,7) mittel (0,8) negativ
12 niedrig (0,7) niedrig (-) negativ
13 sehr niedrig (-) hoch (0,2) null
14 sehr niedrig (-) mittel (0,8) negativ
15 sehr niedrig (-) niedrig (-) negativ_groß
Tab. 17: Regelbasis der unscharfen Ergebnisgröße zusätzliche Absatzmenge (Regelblock 4)
Wie aus Tab. 18 ersichtlich ist, werden von der gesamten Regelbasis (Tab. 17) nur die-
jenigen Regelsätze angesprochen, bei denen kein (-) auftritt, d.h. immer zwei Zugehö-
102
rigkeitsgrade zuordenbar sind (sog. aktive Regelsätze). Dies ist bei den Regelsätzen 7,
8, 10 und 11 der in Tab. 17 abgebildeten Regelbasis der Fall.
aktive
Regelsätze
unscharfe Einflussgrößen ei unscharfe Ergebnisgröße ek
(Fuzzy Business Risk Model)
WENN DANN
Kundentreue Managementqualität zusätzliche Absatzmenge
7 mittel (0,3) hoch (0,2) null
8 mittel (0,3) mittel (0,8) null
10 niedrig (0,7) hoch (0,2) null
11 niedrig (0,7) mittel (0,8) negativ
Tab. 18: Zuordnung der Zugehörigkeitsgrade zu den unscharfen Einflussgrößen eines Regelblocks
Wurden die Zugehörigkeitsgrade aller Eingangsgrößen des Fuzzy Business Risk Models
ermittelt, erfolgt die eigentliche und softwaregestützte Verarbeitung der daraus abgelei-
teten aktiven Regelsätze.
Mittels einer dreistufigen Inferenzkomponente – Aggregation, Implikation, Akkumula-
tion – gelingt es, die in der Risikoidentifikation aufgedeckten und mit Zugehörigkeits-
graden versehenen unscharfen Einflussgrößen ei für jeden Regelblock zu einer unschar-
fen Fuzzy-Menge zu verknüpfen.96
Letztere stellt damit die aggregierte qualitative Risi-
komenge eines Regelblocks dar.
6 Inferenzkomponente bei unscharfen Mengen
6.1 Aggregation
Aufgabe der Aggregation ist es, die Erfülltheitsgrade der Regelsätze zu ermitteln (sog.
Degree of Fulfillment, DOF).97
Dies erfolgt durch die Kombination der Zugehörigkeits-
grade aller auf einen Regelblock einwirkenden aktiven Regelsätze. Um dies zu ermögli-
chen, sind entsprechende Rechenoperatoren festzulegen.98
Im Rahmen der Unterneh-
mensbewertung ist zu beachten, dass bei einem Vergleich mehrerer Akquisitionsobjekte
96
Vgl. Schroll, A.: Fuzzy-Control, S. 133.
97 Vgl. Momsen, B.: Wissensmanagement, S. 71.
98 Einen guten Überblick über die in der Fuzzy-Set Theorie verwendeten Operatoren liefert Bothe, H.-
H.: Fuzzy Logic, S. 36-53.
103
einheitliche Operatoren in der Fuzzy-Inferenz verwendet werden sollten. Unterschiedli-
che Operatoren führen zu unterschiedlichen Fuzzy-Mengen und damit zu nicht mehr
vergleichbaren Ergebnissen.
In der allgemeinen Literatur zur Fuzzy-Set Theorie werden einige beschränkende prag-
matische und mathematische Aspekte genannt, welche die Auswahl eines adäquaten
Operators für den jeweiligen Anwendungsfall erleichtern sollte.99
Für die Zwecke der
Unternehmensbewertung muss der Operator grundsätzlich leicht nachvollziehbar sein,
um so auch den Grundsätzen ordnungsmäßiger Unternehmensbewertung (GoU) zu ge-
nügen. Im Rahmen betriebswirtschaftlicher Fragestellungen hat sich fast ausnahmslos
der sog. Minimum-Operator etabliert.100
Der Minimum-Operator gehört zur Klasse der sog. T-Normen101
, welche mathematische
Modelle für den mengentheoretischen Durchschnitt darstellen und zur Modellierung des
„logischen UND“ dienen.102
In der klassischen Mengenlehre ist der Durchschnitt zweier
Mengen durch jene Elemente definiert, die zu beiden Mengen gehören.
Fortsetzung des Ausgangsbeispiels:
Überträgt man nun diesen Sachverhalt auf die hier dargestellte Bewertung von qualitati-
ven Risiken, bedeutet dies, dass sich die gemeinsame Fuzzy-Menge zweier unscharfer
Einflussgrößen ei (z.B. Kundentreue (K) UND Managementqualität (M)) aus der Mini-
mumbildung dieser beiden eingehenden Fuzzy-Mengen (= Zugehörigkeitsgrade)
ergibt.103
Der Bedingungsteil eines aktiven Regelsatzes ist folglich mit dem kleinsten
zugeordneten Zugehörigkeitsgrad erfüllt (vgl. Tab. 19).
99
Vgl. Hauke, W.: Fuzzy-Modelle, S. 59-60; Hönerloh, A.: Unscharfe Simulation, S. 48-50; Karagian-
nis, D./Telesko, R.: Wissensmanagement, S. 166; Klemm-Bax, S.: Erfolgsfaktoren, S. 30-31; Mayer,
A./Mechler, B./Schlindwein, A./Wolke, R.: Fuzzy Logic, S. 46-48. Insbesondere die mathematischen
Aspekte führen stark in das Gebiet der Fuzzy-Mathematik und spielen für die bewertungsspezifischen
Fragestellungen allenfalls eine nebensächliche Rolle, sodass auf eine vertiefende Darstellung an die-
ser Stelle verzichtet wird.
100 Vgl. Klemm-Bax, S.: Erfolgsfaktoren, S. 27.
101 Vgl. hierzu ausführlich Schroll, A.: Fuzzy-Control, S. 105-112.
102 Vgl. Klemm-Bax, S.: Erfolgsfaktoren, S. 27.
103 Vgl. Hauke, W.: Fuzzy-Modelle, S. 52; Traeger, D. H.: Fuzzy-Logik, S. 33.
104
aktive
Regelsätze
unscharfe Einflussgrößen ei unscharfe Ergebnisgröße ek
(Fuzzy Business Risk Model)
WENN DANN (DOF)
Kundentreue Managementqualität zusätzliche Absatzmenge
7 mittel (0,3) hoch (0,2) null (0,2)
8 mittel (0,3) mittel (0,8) null (0,3)
10 niedrig (0,7) hoch (0,2) null (0,2)
11 niedrig (0,7) mittel (0,8) negativ (0,7)
Tab. 19: Ermittlung der Zugehörigkeitsgrade der unscharfen Ergebnisgröße eines Regelblocks
6.2 Implikation
In der Implikation (auch Kompositionsschritt genannt) wird der Erfülltheitsgrad eines
aktiven Regelsatzes (= Degree of Fulfillment, DOF) zusätzlich mit einem Gewichtungs-
faktor (= Degree of Support, DOS) multipliziert. Dieser nimmt ebenfalls Werte aus dem
Intervall [0;1] an, womit allen aktiven Regelsätzen unterschiedliche Einflussstärken
zugewiesen werden können.104
Die so entstehende „Gewichtung der aktiven Regelsätze“
spielt insbesondere bei Feinsteuerungen im Zusammenhang mit technischen Anwen-
dungen eine größere Rolle.105
Praktisch geschieht dies dadurch, dass jeder aktive Regelsatz zunächst mit einem
Sicherheitsfaktor aus dem Intervall [0;1] versehen wird. Anschließend ist dieser mit
dem Ergebnis der Aggregation zu verknüpfen. Mit anderen Worten, die Berechnung der
Schlussfolgerung eines aktiven Fuzzy-Regelsatzes resultiert aus der Verbindung des
Erfülltheitsgrads des aktiven Regelsatzes (= Degree of Fulfillment, DOF) mit dem ihm
zugeordneten Plausibilitätsgrad (= Degree of Support, DOS). Als Kompensationsopera-
tor kommt grundsätzlich das algebraische Produkt (sog. Produkt-Operator) zum Ein-
satz.106
Im Rahmen betriebswirtschaftlicher Anwendungen werden aus Vereinfachungsaspekten
und zur Vermeidung von „übertriebenen Scheingenauigkeiten“ alle aktiven Regelsätze
104
Vgl. Theileis, U./Kalhoff, A.: ZfgK 2000, S. 34. Zu den Gewichtungsverfahren vgl. ausführlich de
Almeida Cunha, C.: Strategiealternativen, S. 115-129.
105 Vgl. Guttenberger, S.: ZP 1999, S. 298.
106 Vgl. Karagiannis, D./Telesko, R.: Wissensmanagement, S. 151; Scherer, A.: Neuronale Netze,
S. 187. Beim hier verwendeten Softwareprodukt fuzzyTech 5.7 ist der Produkt-Operator bspw. fest
vorgegeben; vgl. Fuzzytech: Benutzerhandbuch, S. 51.
105
gleich gewichtet, sodass stets gilt DOS = 1.107
Die in der Aggregation ermittelten Er-
fülltheitsgrade der Regelsätze (DOF) ändern sich somit nicht. Auch im Rahmen der
Fuzzy-basierten Unternehmensbewertung sind keine Gründe ersichtlich, welche eine
zusätzliche Gewichtung und damit eine „gekünstelte Genauigkeit“ der aktiven Regel-
sätze rechtfertigen würden.
6.3 Akkumulation
Betrachtet man Tab. 19 so fällt auf, dass der Term „null“ dreimal vertreten ist, d.h.
durch drei aktive Regelsätze (Nr. 7, 8 und 10) geschlussfolgert wird. Um die Fuzzy-
Inferenz abschließen und die unscharfe Ergebnismenge ek des Regelblocks ermitteln zu
können, kommt die Akkumulationskomponente zum Einsatz.
In der Akkumulation (auch Ergebnisaggregation genannt) werden diejenigen aktiven
Regelsätze, die die gleiche Schlussfolgerung – jedoch unterschiedliche Erfülltheitsgrade
(DOF) – aufweisen, durch einen weiteren Operator zusammengeführt.108
Eine Möglichkeit bietet hier der sog. Maximum-Operator. Dieser ist in die Klasse der
sog. T-Conormen einzuordnen, die mathematische Modelle für die mengentheoretische
Vereinigung darstellen und der Modellierung des „logischen inklusiven ODER“ dienen.
In der klassischen Mengenlehre ist die Vereinigung zweier Mengen die Supermenge der
Elemente.109
Fortsetzung des Ausgangsbeispiels:
Für die zu ermittelnde Fuzzy-Menge ergibt sich der Erfülltheitsgrad für die Manage-
mentqualität bzw. Kundentreue aus dem Maximum der Erfülltheitsgrade.110
Somit wür-
de für den Term „null“ der Wert 0,3 in die unscharfe Ergebnisgröße des obersten Re-
gelblocks (= Fuzzy-Menge) eingehen. Das Ergebnis des zweiten Terms „negativ“ kann
hingegen direkt übernommen werden, da hier keine unterschiedlichen Erfülltheitsgrade
(DOF) auftreten:
107
Vgl. Momsen, B.: Wissensmanagement, S. 72.
108 Vgl. Momsen, B.: Wissensmanagement, S. 73.
109 Vgl. hierzu ausführlich Hauke, W.: Fuzzy-Modelle, S. 56; Schroll, A.: Fuzzy-Control, S. 113-118;
Zimmermann, H.-J.: Fuzzy Technologien, S. 22-24.
110 Vgl. Hauke, W.: Fuzzy-Modelle, S. 54; Traeger, D. H.: Fuzzy-Logik, S. 34.
106
3,0)2,0;3,0;2,0max(nullDOF
7,0negativDOF
Graphisch ergibt sich somit für den obersten Regelblock (Absatzmenge_zus) die in
Abb. 17 dargestellte, grau hinterlegte Fuzzy-Menge.
Verwandt mit dem Maximum-Operator ist der sog. Bounded Sum-Operator, welcher
aktive Regelsätze mit gleicher Schlussfolgerung aufaddiert, maximal aber bis zur
oberen Grenze von eins.111
Dies soll gewährleisten, dass die Erfülltheitsgrade der un-
scharfen Ergebnisgröße im Intervall [0;1] liegen. Mit anderen Worten, es wird verhin-
dert, dass es zu einem „übervoll gültigen“ aktiven Regelsatz mit einem Wert größer als
eins kommen kann:
7,02,03,02,01
Re
n
i
gelsatzaktivernull iDOF
7,0negativDOF
Nachfolgend werden in jedem Regelblock die jeweils fuzzyfizierten unscharfen Ein-
flussgrößen durch den Minimum-Operator (Min) aggregiert. Im Rahmen der Implikati-
on gilt DOS = 1 und damit DOF * DOS = DOF * 1 = DOF. Zur Akkumulation gleicher
Schlussfolgerungen wird in allen Regelblöcken jeweils der Bounded Sum-Operator
(BSum) und alternativ der Maximum-Operator (Max) eingesetzt. Je nachdem, welcher
Operator im Rahmen der Akkumulation eingesetzt wird, spricht man daher von einer
sog. Min/BSum-Inferenz bzw. Min/Max-Inferenz.
7 Defuzzyfizierung unscharfer Mengen
7.1 Zielsetzung
Die als Ergebnis der Min/BSum- bzw. Min/Max-Inferenz entstehende aggregierte und
unscharfe Ergebnismenge ek (sog. Fuzzy-Menge) aller qualitativen Risiken des
obersten Regelblocks bzw. aller Risiken eines vorgelagerten Regelblocks kann in der
vorliegenden Form noch nicht unmittelbar interpretiert werden.
111
Vgl. FuzzyTech: Handbuch, S. 51 und S. 119. Zu weiteren Fuzzy-Softwareprogrammen vgl. bspw.
die Übersicht in Kratzberg, F.: Fuzzy-Szenario-Management, S. 260.
107
Aufgabe der Defuzzyfizierung ist es daher, die unscharfe Ergebnismenge, die sich als
Ergebnis der Fuzzy-Inferenz ergab, mit möglichst geringem Verlust an Informationen in
einen scharfen Outputwert des Planungsmodells zu transformieren, um auf diese Weise
eine deterministische oder stochastische Weiterverarbeitung im Discounted Cashflow
Model (DCF-Model) zu ermöglichen.112
Durch die Defuzzyfizierung werden also die auf eine aggregierte Fuzzy-Menge verdich-
teten qualitativen Risiken ei in eine quantitativ verwertbare, scharfe Ergebnisgröße
übersetzt. Mit anderen Worten, die qualitativ-unscharfe, linguistische Unsicherheit wird
in eine quantitativ-scharfe, deterministische bzw. stochastische Unsicherheit „über-
führt“.
7.2 Methoden zur Defuzzyfizierung
7.2.1 Überblick
In der Literatur zur allgemeinen Fuzzy-Set Theorie werden mehrere Methoden zur
Defuzzyfizierung unscharfer Fuzzy-Mengen diskutiert (vgl. Tab. 20):113
Center-of-Area Method (Flächenschwerpunktmethode)
Median Method (Flächenhalbierungsmethode)
Mean-of-Maximum Method (Maximum-Mittelwert Methode)
Center-of-Maximum Method (gewichtete Maximum-Mittelwert Methode).
Alle Methoden haben gemeinsam, dass sie als scharfe Ergebnisgröße einen determinis-
tischen Wert liefern.
112
Vgl. Traeger, D. H.: Fuzzy-Logik, S. 102; Zimmermann, H.-J.: Fuzzy Technologien, S. 101.
113 Einen ausführlichen Überblick geben bspw. Hönerloh, A.: Unscharfe Simulation, S. 81-84; Schroll,
A.: Fuzzy-Control, S. 146-153; Urban, M.: Fuzzy-Konzepte, S. 320; Zimmermann, H.-J.: Fuzzy
Technologien, S. 99-102.
108
Center-of-Area
Method
Median
Method
Center-of-
Maximum
Method
Mean-of-
Maximum
Method
Definition
die scharfe Ergeb-
nisgröße ergibt sich
als Flächen-
schwerpunkt der
unscharfen
Fuzzy-Menge
der scharfe Wert,
der die unscharfe
Fuzzy-Menge in
zwei gleich große
Hälften teilt, wird
als scharfe Ergeb-
nisgröße definiert
die Terme mit den
relativ zu den
anderen Termen
höchsten
Erfülltheitsgraden
bilden die scharfe
Ergebnisgröße
die Terme mit den
(arithmetisch
gemittelten) absolut
höchsten
Erfülltheitsgraden
bilden das Ergebnis
für die scharfe
Größe des
DCF-Models
Charakteristik bester Kompromiss plausibelste Lösung
Tab. 20: Vergleich möglicher Defuzzyfizierungsmethoden
7.2.2 Anwendung
Die Methoden sollen anhand unseres Beispielsfalls verglichen werden.
Fortsetzung des Ausgangsbeispiels:
Abb. 17 zeigt die in Kap. 6 hergeleitete Fuzzy-Menge des obersten Regelblocks (Regel-
block 4: Absatzmenge_zus), in der alle wesentlichen qualitativen Risiken, d.h. unschar-
fen Einflussgrößen ei des Fuzzy Business Risk Models bereits verarbeitet und mittels
der Min/Max-Inferenz aggregiert wurden. Der Term „null“ besitzt demzufolge einen in
der Min/Max-Inferenz errechneten Erfülltheitsgrad (DOF) von 0,3; der Term „negativ“
einen Erfülltheitsgrad von 0,7.
Der grau schraffierte Teil bildet somit die gesamte unscharfe Fuzzy-Menge und damit
das Integral für die weitere Berechnung, d.h. den zu defuzzyfizierenden Flächeninhalt
der scharfen Ergebnisgröße „zusätzliche Absatzmenge“, ab.
109
negativ groß negativ positiv großpositivnull
1
0
negativ
vom
Grad
0,7
null
vom
Grad
0,3
3,6%
zusätzliche Absatzmenge (in %)
Erfülltheitsgrad (DOF)Terme der linguistischen Variablen „Absatzmenge_zus“
Center-of-Area Method
a bc d3,3%
Mean-of-Maximum Method
negativ groß negativ positiv großpositivnull
1
0
negativ
vom
Grad
0,7
null
vom
Grad
0,3
3,6%
zusätzliche Absatzmenge (in %)
Erfülltheitsgrad (DOF)Terme der linguistischen Variablen „Absatzmenge_zus“
Center-of-Area Method
a bc d3,3%
Mean-of-Maximum Method
Abb. 17: Defuzzyfizierung der Fuzzy-Menge des obersten Regelblocks
Center-of-Area Method (Flächenschwerpunktmethode)
Um den gesuchten Abszissenwert und damit die scharfe Ergebnisgröße zu ermitteln,
wird bei der Center-of-Area Method der Schwerpunkt der grau schraffierten Fläche
(Fuzzy-Menge) innerhalb der Intervallgrenzen a und b berechnet (vgl. Abb. 17).114
In betriebswirtschaftlichen Fragestellungen hat sich die Flächenschwerpunktmethode
mittlerweile umfassend bewährt und findet in zahlreichen Arbeiten Anwendung.115
In
Abb. 17 würde die zusätzliche Absatzmenge demzufolge 3,6% betragen.
Median Method (Flächenhalbierungsmethode)
Bei der Median Method wird für die zu ermittelnde scharfe Ergebnisgröße derjenige
Abszissenwert herangezogen, der die Fuzzy-Menge, also die über das Integral berechne-
te grau schraffierte Fläche, in zwei Hälften gleicher Größe teilt.116
114
Vgl. Güllich, H.-P.: Fuzzy-Expertensysteme, S. 37; Reinhart, G./Krebs, P./Haas, M./Zäh, M.: ZWF
2008, S. 848. Eine exakte mathematische Berechnung liefert Schroll, A.: Fuzzy-Control, S. 149-152.
115 Vgl. Beemelmann, T.: Fuzzy-Systems, S. 175-176; Erben, R. F.: Fuzzy-Logic, S. 124-126; Güllich,
H.-P.: Fuzzy-Expertensysteme, S. 37; Reinhart, G./Krebs, P./Haas, M./Zäh, M.: ZWF 2008, S. 848;
Guttenberger, S.: ZP 1999, S. 300. Auch das hier eingesetzte Softwareprogramm fuzzyTech 5.7 greift
auf diese Methode zurück.
110
Mean-of-Maximum Method (Maximum-Mittelwert Methode)
Bei der Mean-of-Maximum Method ermittelt sich die scharfe Ergebnisgröße über den-
jenigen Abszissenwert, der auf den Term mit dem maximalen Erfülltheitsgrad (DOF)
fällt. Wenn das Maximum allerdings – wie beim Term „negativ“ – nicht eindeutig ist,
wird das arithmetische Mittel des Teilintervalls herangezogen (vgl. Abb. 17):117
2
maxmax
%cd
ineAbsatzmeng
xxx
Die Mean-of-Maximum Method berechnet im Gegensatz zu allen anderen hier genann-
ten Methoden damit nicht den besten Kompromiss, sondern die plausibelste Lösung.
Mit anderen Worten, die scharfe Ergebnisgröße wird hier also lediglich über den Term
mit dem höchsten resultierenden Erfülltheitsgrad berechnet, während die Flächeninhalte
und damit die Erfülltheitsgrade der anderen Terme vernachlässigt werden. Gem. Abb.
17 würde sich demzufolge eine zusätzliche Absatzmenge von 3,3% ergeben.
Center-of-Maximum Method (gewichtete Maximum-Mittelwert Methode)
Die Center-of-Maximum Method entspricht in der Vorgehensweise zunächst der Maxi-
mum-Mittelwert Methode. Jedoch errechnet diese nun die scharfe Ergebnisgröße als
gewichtetes Mittel der Maxima der Erfülltheitsgrade aller vorkommenden Terme.
Demzufolge ist in der Due Diligence grundsätzlich auch eine Wahl der
Defuzzyfizierungsmethode notwendig, um so einen deterministischen Wert für die
scharfe Ergebnisgröße des obersten Regelblocks zu erhalten. Allerdings ist eine
Defuzzyfizierung dann nicht zwingend nötig, wenn die unscharfe Fuzzy-Menge (bzw.
deren Erfülltheitsgrade) eines Regelblocks in einen nachgelagerten Regelblock einfließt.
Die Erfülltheitsgrade (DOF) eines vorgelagerten Regelblocks stellen dann die Zugehö-
rigkeitsgrade für den nachgelagerten Regelblock dar. Aus informatorischer Sicht emp-
fiehlt sich aber bei allen Regelblöcken eine entsprechend scharfe Darstellung und damit
eine Defuzzyfizierung.
116
Vgl. Scheffels, R.: Jahresabschlussprüfung, S. 89; Zimmermann, H.-J.: Fuzzy Technologien, S. 100.
117 Vgl. Erben, R. F.: Fuzzy-Logic, S. 123; Karagiannis, D./Telesko, R.: Wissensmanagement, S. 168-
170; Zimmermann, H.-J.: Fuzzy Technologien, S. 99-100.
111
7.3 Ergebnisse und Vergleich
Fortsetzung des Ausgangsbeispiels:
Für die Defuzzyfizierung aller drei Zwischenergebnisgrößen (vgl. Tab. 21) sowie der
Endergebnisgröße (vgl. Tab. 22) wird laut Beschluss des Kernteams jeweils die Center-
of-Area Method (CoA) herangezogen ( ). Der Pfeil markiert jeweils die Stelle der
Abszisse, wo sich gem. dieser Methode der Flächenschwerpunkt für das scharfe Zwi-
schen- bzw. Endergebnis befindet (vgl. Abb. 18).
Über alle Regelblöcke betrachtet stellt somit Szenario S3 die Konstellation mit den ge-
ringsten qualitativen Risiken bzw. höchsten Chancen dar. Sowohl die Managementqua-
lität (80,56 Punkte von 100 Punkten), die Kundentreue (66,67 Punkte von 100 Punkten)
wie auch der publike Einfluss (+60,98 Punkte auf einer Skala von -100 bis +100 Punk-
ten) weisen in der Min/Max-Inferenz sehr hohe Werte auf (vgl. Tab. 21).
Regel-
block Zwischenergebnis Typ Inferenz S1 S2 S3 S4 S5
1
Management-
qualität
(in Punkten, 0-100)
Min/BSum 50,81 20,67 80,55 50,00 27,08
Min/Max 54,17 21,03 80,56 40,04 31,67
2
publiker Einfluss (in Punkten,
-100 bis +100)
Min/BSum 9,83 -51,81 55,65 -34,92 -59,45
Min/Max 6,69 -56,67 60,98 -32,52 -43,96
3 Kundentreue
(in Punkten, 0-100)
Min/BSum 27,04 46,08 66,67 15,25 24,81
Min/Max 24,08 48,91 66,67 16,08 33,33
Tab. 21: Deterministische, scharfe Zwischenergebnisse der vorgelagerten Regelblöcke
Insgesamt ergibt sich damit eine zusätzliche Absatzmengenwirkung von +7,41% (vgl.
Tab. 22). Ähnliche Resultate werden in der Min/BSum-Inferenz erzielt.
Regel-
block Endergebnis Typ Inferenz S1 S2 S3 S4 S5
4
zusätzliche
Absatzmenge
(in Prozent)
Min/BSum -3,39 -5,24 7,41 -3,94 -6,39
Min/Max -1,94 -5,45 7,41 -4,40 -4,13
Tab. 22: Deterministisches, scharfes Gesamtergebnis des obersten Regelblocks
112
Betrachtet man die in der Due Diligence ermittelten Ausprägungen für die fünf unschar-
fen Einflussgrößen ei war dieses Ergebnis zu erwarten, da einerseits einer geringen Ab-
wanderungsgefahr eine lange Berufserfahrung gegenübersteht und andererseits das Un-
ternehmen einen sehr guten Ruf und eine hohe Wiederkaufrate besitzt.
Szenario unscharfe Fuzzy- bzw. Gesamtergebnismenge (zusätzliche Absatzmenge in %)
Min/BSum-Inferenz Min/Max-Inferenz
S1
S2
S3
S4
S5
Abb. 18: Gesamtergebnismengen und scharfe Ergebnisgrößen des obersten Regelblocks
Die Szenarien S2, S4 und S5 schneiden hingegen deutlich schlechter ab. Aufgrund der
geringen Erfahrung des Managements (S2 und S5), der hohen Abwanderungsgefahr (S2
und S4), dem außerordentlich schlechten Ruf (S4) und den relativ niedrigen Marketing-
aktivitäten sind die jeweiligen Fuzzy-Mengen der Zwischenergebnisse bzw. ist die
Fuzzy-Menge des obersten Regelblocks bei diesen Szenarien entsprechend negativ aus-
geprägt.
113
Auch die graphische Auswertung in Abb. 18 zeigt, dass das Szenario S3 ein Ergebnis
liefert, das scheinbar die wahre Risikosituation der qualitativen Risiken und damit aller
unscharfen Einflussgrößen widerspiegelt.
Des Weiteren geht aus der graphischen Darstellung hervor, dass die mittels der
Min/BSum-Inferenz ermittelte Fuzzy-Menge einen größeren Flächeninhalt aufweist als
die Berechnung mittels der Min/Max-Inferenz. Damit wird auch die Bedeutung der rich-
tigen Operatorenkombination sichtbar. Bei mehreren hintereinander geschalteten Regel-
blöcken bzw. vielen gleichen Zugehörigkeitsgraden verschlechtert sich die Situation
und damit die Aussagekraft bei der Min/BSum-Inferenz zunehmend. Das liegt daran,
dass in der Akkumulation der BSum-Operator alle aktiven Regelsätze mit gleicher
Schlussfolgerung bis maximal eins addiert, während der Max-Operator nur den aktiven
Regelsatz mit dem höchsten Zugehörigkeitsgrad heranzieht. Bei vielen gleichen aktiven
Regelsätzen ergibt sich nach dem BSum-Operator somit in der Akkumulation relativ
schnell ein Erfülltheitsgrad von eins.118
Ähnlich wie bereits bei anderen betriebswirtschaftlichen Anwendungen empfohlen,
dürfte die Min/Max-Inferenz daher auch für die Aggregation unscharfer Einflussgrößen
im Rahmen der Unternehmensbewertung verhältnismäßig gute Ergebnisse liefern. Den-
noch sollte die Plausibilität der Ergebnisse stets durch beide Operatorenkombinationen
geprüft werden.
8 Integration unscharfer Mengen in die Monte-Carlo Simulation
8.1 Zielsetzung
Anstelle eine – aus der Defuzzyfizierung abgeleitete – deterministische Größe ins Pla-
nungsmodell zu integrieren, ist das verschärfte qualitative Risikopotential stochastisch
zu betrachten, wenn man mit den Daten in einer Monte-Carlo Simulation weiterrechnen
will.
Hierzu wird die ermittelte Fuzzy-Menge des obersten Regelblocks in eine Wahrschein-
lichkeitsverteilung umgerechnet. Mit anderen Worten, die Defuzzyfizierung wird nicht
118
Vgl. hierzu das Beispiel in Kap. 6.3. Der Term „null“ weist nach der Min/Max-Inferenz einen Er-
fülltheitsgrad von 0,3 auf, während nach der Min/BSum-Inferenz aufgrund der Addition bereits ein
Erfülltheitsgrad von 0,7 ermittelt wird.
114
punktgenau, sondern basierend auf einer Verteilung mehrwertig vorgenommen. Damit
fließt die gesamte Schwankungsbreite der unscharfen Ergebnisgröße ek – d.h. aller auf
die Zielgröße wirkenden qualitativen Risiken – in die Bewertung mit ein.
Obwohl die aus den Erfülltheitsgraden abgeleitete Fuzzy-Menge aufgrund ihrer Form
stark einer Wahrscheinlichkeitsverteilung gleicht, handelt es sich bei einer Fuzzy-
Menge und einer Wahrscheinlichkeitsverteilung um zunächst zwei grundlegend ver-
schiedene Konstrukte.119
Erfülltheitsgrade und Wahrscheinlichkeitszahlen unterscheiden
sich dahingehend, dass letztere die Glaubwürdigkeiten angeben, mit der künftige Ereig-
nisse eintreten, während Erfülltheitsgrade die Unsicherheiten beschreiben, mit der die
Ausprägungen von bestimmten in der Termmenge festgelegten Ereignissen erwartet
werden.120
Die aus den Erfülltheitsgraden abgeleitete Fuzzy-Menge spiegelt also eine
qualitativ-linguistische, aber noch keine quantitativ-stochastische Unsicherheit wider.
8.2 Methoden zur Umrechnung in Wahrscheinlichkeiten
8.2.1 Überblick
Zur Ableitung von Verteilungen werden in der Literatur zur stochastischen Unterneh-
mensbewertung als gängige Vorgehensweisen
das Dreipunktschätzverfahren,
die Intervalltechnik sowie
die diskrete Schätzung
diskutiert.121
Die ersten beiden Varianten lassen sich durch eine einfache Modifizierung auch zur
Ableitung einer Verteilung aus einer Fuzzy-Menge im Rahmen der Due Diligence an-
wenden. Welche der beiden Methoden geeigneter erscheint, hängt vom jeweiligen Be-
wertungsfall und letztlich von der Form der resultierenden Fuzzy-Menge ab.
119
Vgl. Guttenberger, S.: ZP 1999, S. 289.
120 Vgl. Nauck, D./Kruse, R.: Fuzzy-Systeme, S. 12.
121 Vgl. hierzu Henselmann, K./Klein, M.: M&A Review 2010, S. 363.
115
8.2.2 Dreipunktschätzverfahren
Das sog. Dreipunktschätzverfahren eignet sich für diejenigen Variablen im stochasti-
schen Bewertungsmodell (Businessplan), die mit leicht nachvollziehbaren, stetigen Ver-
teilungstypen (z.B. Normalverteilung, Gleichverteilung, etc.) zu unterlegen sind. Das
Due Diligence Team hat hierbei den minimal möglichen, den wahrscheinlichsten (Mo-
dus) sowie den maximal möglichen Wert anzugeben. Interpretiert man die Fuzzy-
Menge des obersten Regelblocks zunächst als „fiktive“ Wahrscheinlichkeitsverteilung,
kann sich diese Schätzung an die unscharfe Fuzzy-Menge anlehnen.
Fortsetzung des Ausgangsbeispiels:
Für die Fuzzy-Menge aus Szenario S2 könnte beispielsweise eine PERT-Verteilung
abgeleitet werden.122
Der Vorteil dieser Verteilung liegt darin, dass das Minimum, der
Modalwert und das Maximum direkt angegeben werden können. Der wahrscheinlichste
Wert (Modalwert) ist hier sehr eng am Minimum zu formulieren, um so die Schiefe
möglichst gut wiedergeben zu können (vgl. Abb. 19).123
Szenario Fuzzy-Set Theorie Monte-Carlo Simulation
S2
Abb. 19: Umwandlung der unscharfen Fuzzy-Menge in eine scharfe PERT-Verteilung124
Der Mittelwert (≠ Modalwert(!)) der Verteilung sollte dabei möglichst nah an dem nach
der Center-of-Area Method ermittelten Wert liegen. Der äußerste linke Abszissenwert
(-10%) könnte demnach als Minimum, der äußerste rechte Abszissenwert als Maximum
(+6,5%) und der durch die Center-of-Area Method berechnete Abszissenwert (-5,45%)
122
Vgl. zur PERT-Verteilung allgemein Vose, D.: Risk Analysis, S. 672-674.
123 Vgl. Madlener, R./Siegers, L./Bendig, S.: ZfE 2009, S. 143.
124 Darstellung der Monte-Carlo Simulation mit Crystal Ball
® (Oracle).
116
als Modus herangezogen und daraus eine der Fuzzy-Menge ähnelnde Verteilung, z.B.
eine PERT-Verteilung, abgeleitet werden.
Für die Szenarien S1, S3 und S5 empfiehlt es sich, eine einfache Gleichverteilung125
heranzuziehen, da die Spannweiten der Absatzmengen keine großen Unterschiede auf-
weisen. Für das Szenario S5 ergibt sich damit beispielsweise eine Gleichverteilung zwi-
schen -10% und +3% (vgl. Abb. 20).
Das Dreipunktschätzverfahren hat allerdings zwei Nachteile. Zum einen muss im Regel-
fall zunächst eine Defuzzyfizierung der unscharfen Ergebnisgröße erfolgen. Das Due
Diligence Team hat infolgedessen auch eine Entscheidung hinsichtlich einer der in Kap.
7.2 aufgezeigten Methoden zu treffen. Zum anderen kann die Fuzzy-Menge eine Form
annehmen, die nicht unmittelbar einer entsprechenden Verteilung ähnelt.
Szenario Fuzzy-Set Theorie Monte-Carlo Simulation
S5
Abb. 20: Umwandlung der unscharfen Fuzzy-Menge in eine scharfe Gleichverteilung
8.2.3 Intervalltechnik
Bei der Intervalltechnik ist – anders als beim Dreipunktschätzverfahren – der Bewerten-
de nicht auf durch die eingesetzte Software vorgegebene Verteilungen beschränkt.126
Die Verteilung wird vielmehr manuell definiert.
Ausgangspunkt des Verfahrens bildet die Vorgabe eines Gesamtintervalls. Dieses ist
anschließend in entsprechende Teilintervalle zu zerlegen. Für jedes Teilintervall ist eine
Eintrittswahrscheinlichkeit anzugeben, wobei die Summe der Wahrscheinlichkeiten
aller Intervalle eins ergeben muss. Durch die Division der Wahrscheinlichkeit der ein-
125
Vgl. zur Gleichverteilung allgemein Vose, D.: Risk Analysis, S. 687-688.
126 Vgl. Klein, M.: Add-In basierte Softwaretools, S. 17.
117
zelnen Teilintervalle durch deren Breite kann die Dichtefunktion in Form eines Histog-
ramms berechnet werden. Jeder Wert innerhalb eines Teilintervalls tritt dann mit glei-
cher Wahrscheinlichkeit ein, sodass man quasi von einer „gestückelten Gleichvertei-
lung“ sprechen kann.127
Fortsetzung des Ausgangsbeispiels:
Bei den Szenarien S2 und S4 (vgl. Abb. 18, rechte Spalte) ist – wie bereits durch die
PERT-Verteilung gezeigt – nur ein indirekter, näherungsweiser Vergleich mit einer
Verteilung möglich. Da die Fuzzy-Mengen der jeweiligen Terme unterschiedliche Aus-
prägungen besitzen, besteht des Weiteren die Möglichkeit, zur Ableitung einer Vertei-
lung die Intervalltechnik heranzuziehen.
Bei Szenario S2 lässt sich das Gesamtintervall (-10% bis +6,5%) beispielsweise auf drei
Teilintervalle herunterbrechen, die schätzungsweise die Fuzzy-Menge wiedergeben
(Intervall 1: -10% bis -5%; Intervall 2: -5% bis 0%; Intervall 3: 0% bis 6,5%; vgl. Abb.
21, linkes Bild). Die kumulierten Wahrscheinlichkeiten lassen sich als Ausprägungen
der Fuzzy-Mengen auf der Ordinate der Fuzzy-Graphik annähernd ablesen (Teilintervall
1: 0,55; Teilintervall 2: 0,40; Teilintervall 3: 0,05; vgl. Abb. 21, linkes Bild).
Um diese „fiktiven“ auf echte Wahrscheinlichkeiten zu normieren, dividiert man die
Ausprägungen der drei Fuzzy-Mengen durch die ungefähre Länge der drei Teilintervalle
(vgl. Abb. 21, linkes Bild):
Szenario Fuzzy-Set Theorie Monte-Carlo Simulation
S4
Abb. 21: Umwandlung der unscharfen Fuzzy-Menge mit Hilfe der Intervalltechnik
127
Vgl. Henselmann, K./Klein, M.: M&A Review 2010, S. 363.
118
Teilintervall 1: 0,55 / (-5%-(-10%)) = 0,55 / 5% = 0,11%
Teilintervall 2: 0,40 / (0%-(-5%)) = 0,40 / 5% = 0,08%
Teilintervall 3: 0,05 / (6,5%-0%) = 0,05 / 6,5% ≈ 0,008%
Als Ergebnis erhält man für die zusätzliche Absatzmenge eine scharfe, stochastische
Verteilung (vgl. Abb. 21, rechtes Bild).
8.3 Durchführung der Monte-Carlo Simulation
8.3.1 Ganzheitliches Risikoprofil
Die aus der Fuzzy-Menge aggregierte Verteilung ist abschließend in das stochastische
DCF-Model zu integrieren.128
Eingabedaten (Inputvariablen)
X1 = …
X1 = …
X2 = …
X3 = …
Ergebnishistogrammz.B. EBIT, Cashflow einer Planperiode
Wahrscheinlichkeitsverteilungen
der Inputfaktoren
des PlanungsmodellsTabellenkalkulation
Planungsmodell
Gleichverteilung(historisch)
PERT-Verteilung(aus Fuzzy-Menge)
Monte-Carlo Simulation
Eingabedaten (Inputvariablen)
X1 = …
X1 = …
X2 = …
X3 = …
Ergebnishistogrammz.B. EBIT, Cashflow einer Planperiode
Wahrscheinlichkeitsverteilungen
der Inputfaktoren
des PlanungsmodellsTabellenkalkulation
Planungsmodell
Gleichverteilung(historisch)
PERT-Verteilung(aus Fuzzy-Menge)
Monte-Carlo Simulation
Abb. 22: Risikoaggregation129
128
Vgl. zur Integration von Verteilungen in Excel-basierte DCF-Modelle bspw. Klein, M.: Add-In ba-
sierte Softwaretools, S. 10-16.
129 In Anlehnung an Klein, M./Höfner, A.: KSI 2011, S. 5-12.
119
Die bereits im Planungsmodell vorhandene Verteilung der Plangröße und die aus der
Fuzzy-Menge konstruierte Verteilung liefern zusammen die Ergebnisgröße für ein si-
muliertes Szenario des interessierenden Werttreibers.
Bei einer Spreadsheet basierenden Anwendung, beispielsweise mit Microsoft Excel,
wären im Planungsmodell zur Errechnung der Streuung des periodenspezifischen Cash-
flows bzw. der interessierenden scharfen Ergebnisgröße damit zwei Felder (mit der
gleichen Variable) durch entsprechende Verteilungen zu hinterlegen (vgl. Abb. 22).130
Die Schwierigkeit, die Erkenntnisse der Fuzzy-Set Theorie mit den stochastischen Plan-
größen zu verbinden, liegt dabei darin, dass die mehrwertig interpretierten Plangrößen
der Businessplanung häufig bereits qualitative Risiken mit einkalkulieren.131
Damit be-
steht zwangsläufig die Gefahr einer Doppelerfassung.
Um dies zu vermeiden, sollten im stochastischen Modell zunächst nur die per Vergan-
genheitsanalyse ermittelten und historisch bereinigten Größen mehrwertig dargestellt
und simuliert werden.132
Die zukünftige Entwicklung wird dann über den entsprechen-
den aus der Fuzzy-Menge abgeleiteten Wert simuliert. Somit wird mit jedem Simulati-
onslauf (Szenario) der aus der historischen Verteilung ermittelte vergangenheitsbasierte
Wert einer Variablen durch einen – mittels der Fuzzy-Set Theorie erzeugten – primär
zukunftsbasierten Wert ergänzt. Je nach Form der Fuzzy-Menge und der daraus abgelei-
teten Verteilung kann es in jedem Szenario somit zu einem Zu- bzw. Abschlag zur his-
torisch simulierten Größe der interessierenden scharfen Variablen der integrierten Busi-
nessplanung kommen.
Fortsetzung des Ausgangsbeispiels:
Die mehrwertige Ermittlung von künftigen Absatzmengen ist zunächst aus der Simula-
tion von historischen Absatzmengen des Zielunternehmens möglich (beispielsweise
130
Vgl. hierzu Klein, M.: Add-In basierte Softwaretools, S. 14-15.
131 Zur Businessplanung mit Excel-basierten DCF-Modellen vgl. bspw. Gillenkirch, R. M./Thamm, R.:
WiSt 2008, S. 685-689.
132 Die Monte-Carlo Simulation enthält damit Elemente der historischen Simulation, vgl. zur Abgren-
zung beider Varianten bspw. Henselmann, K./Klein, M.: Der Konzern 2010, S. 352-353. Zur Ver-
gangenheitsanalyse vgl. bspw. Peemöller, V./Kunowski, S.: IDW, S. 293-294.
120
mittels einer Gleichverteilung).133
Die Höhe des (absoluten bzw. prozentualen) Zu-
schlags zur historisch simulierten Basismenge wird z.B. bei Szenario S2 durch den si-
mulierten Wert der aus der Fuzzy-Menge abgeleiteten PERT-Verteilung bestimmt, die
insbesondere unscharfe Einflussgrößen – wie beispielsweise die Managementqualität –
berücksichtigt. Gem. Szenario S2 würde sich der Ab- bzw. Zuschlag in den Grenzen
zwischen -10% und +6% bewegen (vgl. Abb. 19). Unterstellt man historische Absatz-
mengen, die sich durch eine Gleichverteilung zwischen 40.000 und 55.000 Stück abbil-
den lassen, ergibt sich bei 10.000 Simulationsläufen folgende Wirkung auf die gesamte
Absatzmenge einer Periode:
Simulationslauf
gezogener Wert aus der
Gleichverteilung des
Planungsmodells (aus historischen Größen,
in Stück)
gezogener relativer Wert
aus der
PERT-Verteilung (absoluter Ab-/Zuschlag
in Stück)
Absatzmenge
des Szenarios
insgesamt (in Stück)
1 52.700 -8,7% (-4.585) 48.115
2 43.600 -2,3% (-1.003) 42.597
9.999 54.298 +2,4% (+1.303) 55.601
10.000 47.255 -7,5% (-3.544) 43.711
Tab. 23: Ermittlung der Absatzmenge für das Szenario S2
Alle Simulationsläufe ergeben nach einer entsprechenden Verknüpfung mit dem Ab-
satzpreis eine entsprechende Verteilung der Umsatzerlöse und damit der simulierten
Erfolgs-/Zahlungsstromgröße einer Periode (= ganzheitliches Risikoprofil), die dann
den Ausgangspunkt der Risikoanalyse bildet.134
133
Zur Ableitung und Beurteilung von Verteilungen aus historischen Größen im Due Diligence Prozess
vgl. Klein, M.: Add-In basierte Softwaretools, S. 21-28.
134 Vgl. zur Auswertung und Analyse von Simulationsergebnissen Klein, M.: Add-In basierte Software-
tools, S. 40-56.
121
Entscheidung
unter
Unsicherheit
Definition der
Zielgröße(z.B. Cashflow)
Abweichung
der Zielgröße(z.B. Cashflow)
Risikoprämie
aus
Risikoanalyse
qualitativ linguistisch
Stochastik
z.B.
objektive/
subjektive
Verteilungen
der
Absatzmengenstochastischquantitativ
Unschärfe
z.B.
Mitarbeiter-
motivation,
kulturelle
Risiken, etc.
Verarbeitung der auf die Zielgröße wirkenden UnsicherheitenEntscheidung
unter
Unsicherheit
Definition der
Zielgröße(z.B. Cashflow)
Abweichung
der Zielgröße(z.B. Cashflow)
Risikoprämie
aus
Risikoanalyse
qualitativ linguistisch
Stochastik
z.B.
objektive/
subjektive
Verteilungen
der
Absatzmengenstochastischquantitativ
Unschärfe
z.B.
Mitarbeiter-
motivation,
kulturelle
Risiken, etc.
Verarbeitung der auf die Zielgröße wirkenden Unsicherheiten
Abb. 23: Ganzheitliches Risikoprofil
Die simulierten Cashflow-Verteilungen aller Planperioden charakterisieren die Risiko-
struktur des Zielunternehmens, indem die Möglichkeit der Abweichung des tatsächli-
chen Zahlungsstroms einer Periode vom erwarteten Wert transparent gemacht wird.135
8.3.2 Risikoprämie und Unternehmenswert
Die Gefahr der negativen Abweichung des prognostizierten Zahlungsstroms von seinem
Erwartungswert stellt die Grundlage für die Berechnung eines Risikomaßes und damit
der Risikoprämie einer Planperiode dar.136
Durch die jeweilige Diskontierung der um
die Risikoprämie bereinigten Erwartungswerte mit dem risikofreien Zins (Sicherheits-
äquivalentmethode137
), kann schließlich ein Unternehmenswert ermittelt werden, wel-
cher sowohl die unscharfen Einflussgrößen als auch die historischen Entwicklungen
– d.h. qualitative und quantitative Komponenten – unternehmensspezifisch erfasst (vgl.
135
Vgl. Klein, M./Höfner, A.: KSI 2011, S. 5-12. Ein solches Risikomaß stellt bspw. der mit dem Value-
at-Risk verwandte Cashflow-at-Risk (CFaR) einer Planperiode dar; vgl. zum at-Risk Konzept bspw.
Henselmann, K./Klein, M./Fürst, B.: Corporate Finance biz 2010, S. 459-467.
136 Vgl. ausführlich Gleißner, W./Kamaras, E./Wolfrum, M.: Beteiligungen, S. 129-193; Klein, M.: Add-
In basierte Softwaretools, S. 46.
137 Vgl. zur Sicherheitsäquivalentmethode Ballwieser, W.: BFuP 1981, S. 97-114.
122
Abb. 23).138
Eine zunehmende quantitative und qualitative Risikomenge führt demnach
zu einem sinkenden Unternehmenswert. Des Weiteren kann aus dem sich ergebenden
ganzheitlichen Risikoprofil auch ermittelt werden, wie hoch die Wahrscheinlichkeit für
ein Eigenkapital kleiner Null einer Periode ist. Die entsprechende Insolvenzwahrschein-
lichkeit lässt sich dann ebenfalls als Inputfaktor im Bewertungsmodell erfassen.139
Vorteilhaft ist zudem, dass durch die Anwendung des hier vorgestellten Konzepts für
das Risikomaß keine historischen Kapitalmarktdaten – wie bei der traditionellen Rendi-
tegleichung des Capital Asset Pricing Models (CAPM) – über das Bewertungsobjekt
benötigt werden.140
Die unternehmensspezifischen Ausprägungen der Ursache-Wir-
kungs-Beziehungen werden, aufbauend auf der Wissensbasis, durch eine ganzheitliche
Risikobewertung in der Due Diligence bzw. durch Rückgriff auf die Wissensbasis si-
chergestellt.
9 Kritische Würdigung des Konzepts
Die bisherigen Ausführungen haben gezeigt, dass wissensbasierte Systeme und die da-
ran anknüpfende Fuzzy-Set Theorie gute Ansätze liefern, um qualitative Einflussfakto-
ren bzw. linguistische Unsicherheiten in die monetäre, stochastische Unternehmensbe-
wertung zu integrieren. Allerdings führt die Anwendung der Fuzzy-Set Theorie zu ge-
wissen Limitationen, die gleichzeitig als Chancen für eine allumfassende Unterneh-
mensbewertung zu interpretieren sind:
Die Erstellung des Fuzzy Business Risk Models führt – sofern in der Wissensbasis
noch kein gespeichertes Fakten- und/oder Regelwissen vorhanden ist – im Rahmen
der Due Diligence zu einem erhöhten Schätzaufwand (beispielsweise hinsichtlich
der Terme linguistischer Variablen, deren Definitionsbereiche sowie der Darstellung
des notwendigen Regelwissens). Andererseits können aber gerade durch den Aufbau
solcher wissensbasierter Netze im Zeitablauf die qualitativen Einflussfaktoren einer
138
Vgl. grundlegend hierzu Gleißner, W.: WPg 2010, S. 742. Die Insolvenzwahrscheinlichkeit kann aus
der sich ergebenden Verteilungsfunktion des periodenspezifischen Eigenkapitals abgeleitet werden;
vgl. hierzu auch Klein, M./Höfner, A.: KSI 2011, S. 5-12.
139 Vgl. Gleißner, W.: WPg 2010, S. 742.
140 Vgl. Gleißner, W.: Risikomanagement, S. 277-278. „Lediglich“ die Bestimmung des Marktpreises
des Risikos ist demnach vom Kapitalmarkt zu ermitteln. Damit kann das hier vorgestellte Konzept
auch bei nicht börsennotierten Unternehmen Anwendung finden.
123
Branche gut dargestellt und stetig verbessert werden. Dadurch entsteht eine Art
„Neuronales Netz“141
, welches durch die Lernfähigkeit und Fähigkeit zur Anpas-
sung an sich verändernde Situationen eine kontinuierliche Verbesserung der Bewer-
tung garantiert. Des Weiteren erleichtert die Darstellung als netzwerkbasiertes
Fuzzy Business Risk Model mit allen unscharfen Faktoren und Zusammenhängen
(Fakten- und Regelwissen) die Verarbeitung der bewertungsrelevanten Daten und
die Visualisierung der Ergebnisse.
Die Gewinnung von internem Fakten- und Regelwissens im Rahmen der Due Dili-
gence gestaltet sich mitunter noch schwierig. Zwar gibt mittlerweile ein Großteil des
Managements in empirischen Studien an, dass der Markt selbst zunehmend qualita-
tive – d.h. unscharfe – Einflussgrößen betont, die Messung im Unternehmen – trotz
vorhandener Balanced Scorecards – aber als primär schlecht beurteilt wird. Dies gilt
insbesondere für kleinere und mittlere Unternehmen, bei denen aber die unscharfen
Einflussgrößen und deren Ursache-Wirkungs-Zusammenhänge aufgrund fehlender
(Strategie-)Diversifikation, mangelnder Historie der Zahlungsströme, etc. eine be-
sonders wichtige Rolle spielen.142
Durch die Nachwirkungen der jüngsten Finanz-
marktkrise – und der damit einhergehenden vorsichtigeren Kreditvergabepraxis vie-
ler Banken – profitiert der unscharfe Bewertungsansatz auch indirekt von den künf-
tigen Entwicklungen im internen Risikomanagement und -controlling vieler Unter-
nehmen. Durch neue Vorschriften zur Eigenmittelunterlegung (Stichwort Basel III),
dürften Banken aus Eigeninteresse viele Kreditnehmer dazu anhalten, sich verstärkt
mit Fragen des Risikomanagements und damit der Erfassung unscharfer operativer
und strategischer Einflussgrößen auseinanderzusetzen.143
Die Pflege der Wissensbasis, insbesondere der kontinuierliche Erwerb von externem
Fakten- und Regelwissen, erfordert eine aktive Umsetzung von neuen Methoden der
141
Vgl. zur Verbindung von Neuronalen Netzen und der Fuzzy-Technik bereits Nauck, D./Klawonn,
F./Kruse, R.: Neuronale Netze. Allgemein Lämmel, U./Cleve, J.: Künstliche Intelligenz, S. 193-204.
142 Von 175 Vorständen und Aufsichtsräten größerer Unternehmen wurde in einer Studie von Deloitte
aus dem Jahr 2007 angegeben, dass die Fähigkeit zur Messung nicht-finanzieller Leistungsindikato-
ren nur mit 5% als hervorragend und mit 24% als gut zu bezeichnen ist; vgl. Deloitte: In the dark II
sowie Tesch, J./Wissmann, R.: Lageberichterstattung, S. 107.
143 Vgl. hierzu insbesondere Graumann, M./Linderhaus, H./Grundei, J.: BFuP 2009, S. 492-505. Die
Autoren fordern, dass die Vorstände und Geschäftsführer über angemessene Entscheidungsinstru-
mente verfügen müssen, um das Ausmaß möglicher Risiken frühzeitig beurteilen zu können. Zur stra-
tegischen Frühaufklärung vgl. auch Krystek, U.: ZfCM 2007, Sonderheft 2, S. 50-58.
124
Datenanalyse und -verarbeitung. Gerade dieser Punkt sollte mit der künftigen Ein-
führung der XBRL-Technik in der Rechnungslegungspublizität nicht als Nachteil,
sondern als Chance gesehen werden. Durch die einfache Aufbereitung einer Viel-
zahl an Informationen der Bilanz und GuV-Rechnung können nicht nur branchen-
spezifische quantitative Verteilungen für einzelne Plangrößen des stochastischen
Bewertungsmodells abgeleitet, sondern langfristig auch qualitativ-linguistische In-
formationen im Anhang und Lagebericht aufbereitet und für die Fuzzy-basierte An-
wendung genutzt werden. Bereits heute deuten erste Untersuchungen darauf hin,
dass zwischen der Wortwahl der externen Berichterstattung und den künftigen Er-
gebnissen empirisch relevante Zusammenhänge bestehen.144
Des Weiteren kann
durch die strukturierte Darstellung auch branchenspezifisches Fakten- und Regel-
wissen für die Wissensbasis abgeleitet werden.
Mit der Umsetzung der Fuzzy-Set Theorie kommen auch an die Verantwortlichen
im Due Diligence Team erhöhte Anforderungen zu, da diese grundlegende Kennt-
nisse der Fuzzy-Inferenz sowie der Stochastik besitzen müssen. Allerdings ist die
Fuzzyfizierung, d.h. die Bewertung der qualitativen Risiken, einfach in Workshops
vorzunehmen, sodass lediglich der Workshopverantwortliche vertiefende Kenntnis-
se, insbesondere über die mathematische Umsetzung der Regelverarbeitung, aufwei-
sen muss. Gerade vor dem Hintergrund der Globalisierung (beispielsweise Verkür-
zung der Produktlebenszyklen in der Mobilfunktechnologie, politische Instabilitäten
in Schwellenländer) besitzen Akquisitionen eine hohe Gefahr des Scheiterns.145
Die
Kosten für die zusätzliche Ausbildung zur Errichtung einer Wissensbasis und zur
Umsetzung der Fuzzy-Set Theorie stehen damit in keinem unangemessenen Ver-
hältnis zum daraus resultierenden Nutzen.
Das Ergebnis der Fuzzy-Set Theorie hängt entscheidend von der richtigen Regelver-
arbeitung ab, da die Wahl der Operatorenkombination in der Inferenzkomponente
bzw. die Festlegung der Definitionsbereiche erheblichen Einfluss auf die Ausgestal-
tung der Fuzzy-Menge und damit auf die daraus abzuleitende scharfe Verteilungs-
form einer Plangröße nehmen. Insbesondere die Auswahl, die Anzahl und die
Fuzzy-basierte Umrechnung der qualitativen Risiken in eine scharfe Größe eröffnen
144
Vgl. Henselmann, K./Klein, M./Raschdorf, F.: Prognoseeignung, S. 19.
145 Vgl. allgemein bspw. Kinkel, S.: Erfolgsfaktor, S. 49-73.
125
– trotz der durchgeführten Expertenworkshops – somit subjektive Ermessensspiel-
räume.
10 Zusammenfassung und Ausblick
Die Modellierung und Verarbeitung qualitativer Risiken mittels der Fuzzy-Set Theorie
bietet eine attraktive Möglichkeit, unscharfe Einflussgrößen auf den Erfolg eines Unter-
nehmens computergestützt zu bewerten und zu aggregieren. Durch neue Techniken der
Informationsverarbeitung kann Regel- und Faktenwissen aus verschiedenen Datenquel-
len bzw. aus einer vorhandenen Wissensbasis erhoben und zur weiteren Verarbeitung in
der Due Diligence genutzt werden.
Das so entstehende Fuzzy Business Risk Model stellt dem potentiellen Käufer Wissen
über Ursache-Wirkungs-Zusammenhänge zur Verfügung, welches dazu beiträgt, den
Beurteilungsprozess über im Zielunternehmen innewohnende Risiken zu beschleunigen
und zu objektivieren.146
Investoren können so frühzeitig negatives von Belang, Stolper-
steine oder gar Deal Breaker aufdecken und kritisch hinterfragen. Durch die Umrech-
nung des fuzzyfizierten qualitativen Risikopotentials eines Unternehmens in Wahr-
scheinlichkeitsdichtefunktionen gelingt es, sowohl qualitative als auch quantitative Ein-
flussgrößen monetär in der stochastischen Planrechnung zu berücksichtigen. Dadurch
kann für jede Periode eine Zahlungsstromverteilung simuliert werden, welche die wahre
Risikosituation eines Unternehmens widerspiegelt.
Das dadurch entstehende ganzheitliche Risikoprofil aller Planperioden liefert einen um-
fassenden Einblick in die Risikostruktur eines Unternehmens und lässt sich zugleich für
die Ableitung von Risikoprämien nutzen. Insofern ist bei der hier vorgestellten Methode
die häufig aufgeworfene Frage „Wahrscheinlichkeit ODER Fuzziness?“ zu beantworten
mit „Wahrscheinlichkeit UND Fuzziness!“.147
Oder wie Zimmermann es treffend aus-
drückt: „Decision models might contain probabilistic as well as possibilistic compo-
nents“.148
146
Vgl. Klemm-Bax, S.: Erfolgsfaktoren, S. 177-178.
147 Wolf, J.: Fuzzy-Modelle, S. 159 im Zusammenhang mit Investitionsfragen.
148 Zimmermann, H.-J.: European Journal of Operational Research 1993, S. 205.
126
Künftige Forschungsarbeiten sollten sich zur Aufdeckung von bewertungsrelevanten
Ursache-Wirkungs-Zusammenhängen verstärkt mit der qualitativen Erfolgsfaktorenfor-
schung und Fragen zur semantischen Datenanalyse auseinandersetzen. Die künftige
Einführung von XBRL in der Rechnungslegung und die damit verbundene Möglichkeit
zur computergestützten Konkurrenzanalyse dürften Fuzzy-basierten Anwendungen und
wissensbasierten Systemen – insbesondere im Rahmen der Unternehmensbewertung –
weiteren Auftrieb verleihen.
127
Literaturverzeichnis
Arbeitskreis Immaterielle Werte im Rechnungswesen der Schmalenbach-Gesellschaft
für Betriebswirtschaft e.V.: Freiwillige externe Berichterstattung über immaterielle
Werte, in: DB 2003, S. 1233-1237
Arbeitskreis Externe Unternehmensrechnung (AKEU) der Schmalenbach-Gesellschaft
e.V.: Finanzkommunikation mit XBRL, in: DB 2010, S. 1472-1479
Bach, N.: Analyse der empirischen Balanced Scorecard Forschung im deutschsprachi-
gen Raum, in: ZfCM 2006, S. 298-304
Bagus, T. (Wissensbasierte Bonitätsanalyse): Wissensbasierte Bonitätsanalyse im Fir-
menkundengeschäft der Kreditinstitute, Frankfurt am Main 1992
Ballwieser, W.: Die Wahl des Kalkulationszinsfußes bei der Unternehmensbewertung
unter Berücksichtigung von Risiko und Geldentwertung, in: BFuP 1981, S. 97-114
Ballwieser,W./Leuthier, R.: Betriebswirtschaftliche Steuerberatung: Grundprinzipien,
Verfahren und Probleme der Unternehmensbewertung (Teil 1), in: DStR 1986,
S. 545-551
Beekmann, F./Chamoni, P. (Data Mining): Verfahren des Data Mining, in: Chamoni,
P./Gluchowski, P. (Hrsg.): Analytische Informationssysteme, 3. Aufl., Berlin 2006,
S. 263-282
Beemelmann, T. (Fuzzy-Systems): Segmentermittlung und Potentialbewertung im
Wertpapiergeschäft mittels Fuzzy-Logik. Grundlagen und Methoden, Saarbrücken
2007
Bennert, R. (Soft-Computing Methoden): Soft-Computing Methoden in Sanierungsprü-
fung und -controlling. Entscheidungsunterstützung durch Computational
Intelligence, Wiesbaden 2004
Bodjadziev, G./Bodjadziev, M. (Fuzzy Logic for Business): Fuzzy Logic for Business,
Finance and Mangement, Singapur 1997
Böhler, H. (Früherkennung): Strategische Marketing-Früherkennung, Köln 1983
128
Bömelburg, P. (Vorbereitung): Vorbereitung der Unternehmensbewertung, in:
Peemöller, V. (Hrsg.): Praxishandbuch der Unternehmensbewertung, 4. Aufl.,
Nürnberg 2009, S. 157-167
Borgelt, C./Klawonn, F./Kruse, R./Nauck, D. (Neuro-Fuzzy-Systeme): Neuro-Fuzzy-
Systeme. Von den Grundlagen künstlicher Neuronaler Netze zur Kopplung mit
Fuzzy-Systemen, 3. Aufl., Wiesbaden 2003
Bothe, H.-H. (Fuzzy Logic): Fuzzy Logic. Einführung in Theorie und Anwendungen,
2. Aufl., Berlin 1995
Bretzke, W.: Unternehmensbewertung in dynamischen Märkten, in: BFuP 1993,
S. 39-45
Brunner, F.: Strategievaluierung: Zentrale Fragestellung der Unternehmensbewertung,
in: Corporate Finance biz 2010, S. 183-187
Brunner, J.: Ein integrierter Ansatz zur wertsteigernden Unternehmensführung. Value-
based Management und Balanced Scorecard, in: ST 2000, S. 19-28
Chmielewicz, K. (Finanzrechnung): Betriebliches Rechnungswesen. Finanzrechnung
und Bilanz, Reinbek bei Hamburg 1973
de Almeida Cunha, C. (Strategiealternativen): Ein Modell zur Unterstützung der Bewer-
tung und Auswahl von Strategiealternativen, Dissertation, Aachen 1989
Deloitte (In the dark II): In the dark II. What boards and executives still don´t know
about the health of their business, New York 2007
Dietrich, R. (Methoden): Methoden der künstlichen Intelligenz zur Lösung des
Prognoseproblems bei der Unternehmensbewertung, Berlin 1993
D.I.R.K. e. V. (Corporate Perception on Capital Markets): Corporate Perception on
Capital Markets. Qualitative Erfolgsfaktoren der Kapitalmarktkommunikation,
Hamburg 2007, abrufbar unter
http://www.dirk.org/images/stories/irstudien/071119_studie_corporate_perception.
pdf (26.09.2010)
Dobler, T./Lambert, A.: Einsatz von Wissens-Management-Systemen, in: KSI 2010,
S. 171-175
129
Effing, W. (Konkurrenzanalyse): Jahresabschlussbasierte Konkurrenzanalyse, Aachen
2002
Eickemeier, S. (Fuzzy-Entscheidungsmodelle): Fuzzy-Entscheidungsmodelle im Risi-
komanagement, in: Schubert, S./Reusch, B./Jesse, N. (Hrsg.): Informatik bewegt:
Informatik 2002. 32. Jahrestagung der Gesellschaft für Informatik e.V. (GI), Bonn
2002, S. 660-669
Erben, R. F. (Fuzzy-Logic): Fuzzy-Logic-basiertes Risikomanagement. Anwendungs-
möglichkeiten der Theorie unscharfer Mengen im Rahmen des Risikomanagements
von Industriebetrieben unter besonderer Berücksichtigung der Beurteilung von
Länderrisiken, Dissertation, Julius-Maximilians-Universität, Würzburg 2000
Ernst, H.-J./Hanikaz, M. (Modulgesteuerte Businessplanung): Modulgesteuerte Busi-
nessplanung als Instrument der Unternehmensbewertung, in: Peemöller, V. (Hrsg.):
Modulhandbuch der Unternehmensbewertung, 4. Aufl., Nürnberg 2009, S. 209-232
Fischer, T. M./Wenzel, J.: Publizität von Werttreibern im Value Reporting. Ergebnisse
einer empirischen Studie, in: Controlling 2004, S. 305-314
Fink, S. (Bewertungsprobleme): Bewertungsprobleme bei der Verschmelzung von Ge-
nossenschaften, Nürnberg 2008
Freidank, C.-C./Steinmeyer, V.: Betriebliches Reporting als Basis für die Erstellung und
Prüfung des Lageberichts, in: Controlling 2009, S. 249-256
Fülbier, R./Niggemann, T./Weller, M.: Verwendung von Rechnungslegungsdaten durch
Aktienanalysten: Eine fallstudienartige Auswertung von Analystenberichten zur
Automobilindustrie, in: FB 2008, S. 806-813
FuzzyTech (Benutzerhandbuch): fuzzyTECH 5.7 Benutzerhandbuch, Aachen 2007
Gillenkirch, R. M./Thamm, R.: Fallstudie zur Unternehmensbewertung: Bewertung der
MiQuando-AG. Teil 2: Bewertung des Unternehmens und Risikosimulation, in:
WiSt 2008, S. 685-689
Gleißner, W.: Aufbau einer Balanced Scorecard in der Unternehmenspraxis, in: BC
2000, S. 129-134
Gleißner, W. (Risikomanagement): Grundlagen des Risikomanagements im Unterneh-
men, München 2008
130
Gleißner, W./Kamaras, E./Wolfrum, M. (Beteiligungen): Simulationsbasierte Bewer-
tung von Akquisitionszielen und Beteiligungen, in: Gleißner, W./Schaller, A.
(Hrsg.): Private Equity, Weinheim 2008, S. 129-193
Gleißner, W./Mott, B.: Risikomanagement auf dem Prüfstand. Nutzen, Qualität und
Herausforderungen in der Zukunft, in: ZRFG 2008, S. 53-63
Gleißner, W.: Unternehmenswert, Rating und Risiko, in: WPg 2010, S. 735-743
Graumann, M./Linderhaus, H./Grundei, J.: Wann ist die Risikobereitschaft bei unter-
nehmerischen Entscheidungen „in unzulässiger Weise überspannt“?, in: BFuP
2009, S. 492-505
Güllich, H.-P. (Fuzzy-Expertensysteme): Fuzzy-Expertensysteme zur Beurteilung von
Kreditrisiken, Wiesbaden 1997
Guttenberger, S.: Die Berücksichtigung von realen Entscheidungssituationen bei der
Planung von Sachinvestitionen mit Hilfe eines regelbasierten Fuzzy-Entscheidungs-
unterstützungssystems, in: ZP 1999, S. 283-305
Hauke, W. (Fuzzy-Modelle): Fuzzy-Modelle in der Unternehmensplanung, Heidelberg
1998
Hayn, M. (Junge Unternehmen): Bewertung junger Unternehmen, in: Peemöller, V.
(Hrsg.): Praxishandbuch der Unternehmensbewertung, 4. Aufl., Nürnberg 2009,
S. 673-706
Helbling, C. (Due Diligence Review): Due Diligence Review, in: Peemöller, V. (Hrsg.):
Praxishandbuch der Unternehmensbewertung, 4. Aufl., Nürnberg 2009, S. 233-242
Helbling, C. (Kleine und mittlere Unternehmen): Besonderheiten der Bewertung von
kleinen und mittleren Unternehmen, in: Peemöller, V. (Hrsg.): Praxishandbuch der
Unternehmensbewertung, 4. Aufl., Nürnberg 2009, S. 708-717
Henselmann, K. (Unternehmensrechnungen): Unternehmensrechnungen und Unterneh-
menswert. Ein situativer Ansatz, Aachen 1999
Henselmann, K.: Value Reporting und Konkurrenzanalyse, in: BFuP 2005, S. 296-305
Henselmann, K./Kaya, D.: Empirische Analyse des Offenlegungszeitpunkts von Jahres-
abschlüssen nach dem EHUG, in: WPg 2009, S. 497-501
131
Henselmann, K./Klein, M./Maier, C. (Risikoangaben): Der Wertpapierprospekt. Empiri-
sche Befunde zur Qualität der Risikoangaben bei Neuemissionen, Working Papers
in Accounting Valuation Auditing Nr. 2009-1, Nürnberg 2009
Henselmann, K./Klein, M./Raschdorf, F. (Prognoseeignung): Prognoseeignung des
Prognoseberichts, Working Papers in Accounting Valuation Auditing Nr. 2010-2,
Nürnberg 2010
Henselmann, K./Klein, M.: Monte-Carlo-Simulation in der Due Diligence. Ein methodi-
scher Ansatz zum computergestützten Aggregieren von Wahrscheinlichkeitsvertei-
lungen aus Expertenbefragungen, in: M&A Review 2010, S. 358-366
Henselmann, K./Klein, M.: Methoden und Determinanten der Messung von Marktpreis-
risiken in deutschen Konzernunternehmen, in: Der Konzern 2010, S. 350-358
Henselmann, K./Klein, M./Fürst, B.: Marktpreisrisiko-Reporting bei Nichtfinanzinstitu-
ten nach IFRS 7, in: Corporate Finance biz 2010, S. 457-476
Henselmann, K./Klein, M./Hartmann, A.: Risikopublizität in börsenregulierten Markt-
segmenten, in: Corporate Finance biz 2010, S. 543-551
Hönerloh, A. (Unscharfe Simulation): Unscharfe Simulation in der Betriebswirtschaft.
Modellbildung und Simulation auf der Basis der Fuzzy-Set Theorie, Göttingen
1997
Hummeltenberg, W. (Business Intelligence): Disziplinen von Business Intelligence, in:
Kortzfleisch, H./Bohl, O. (Hrsg.): Wissen-Vernetzung-Virtualisierung, Lohmar
2008, S. 41-56
Kahlert, J./Frank, H. (Fuzzy-Logik): Fuzzy-Logik und Fuzzy-Control. Eine anwen-
dungsorientierte Einführung, 2. Aufl., Wiesbaden 1994
Kajüter, P./Guttmeier, M.: Der Exposure Draft des IASB zum Management
Commentary, in: DB 2009, S. 2333-2339
Kaplan, R./Norton, D.: The Balanced Scorecard – Measures That Drive Performance,
in: Harvard Business Review 1992, S. 71-79
Karagiannis, D./Telesko, R. (Wissensmanagement): Wissensmanagement. Konzepte der
Künstlichen Intelligenz und des Softcomputing, München 2001
132
Kaya, D.: Theorie und Praxis des Value Reporting am Beispiel der
Prognoseberichterstattung im Konzernlagebericht, in: Der Konzern 2010, S. 358-
365
Kegel, K. P. (Risikoanalyse): Risikoanalyse von Investitionen – Ein Modell für die Pra-
xis, Darmstadt 1991
Kesselmeyer, B./Frank, R.: Schlüsseltechnologie XBRL, in: Die Bank 2009, S. 72-74
Kinkel, S. (Erfolgsfaktor): Die Strategie im Fokus: Erfolgskritische Standortfaktoren für
verschiedene Internationalisierungsstrategien, in: Kinkel, S. (Hrsg.): Erfolgsfaktor
Standortplanung, Heidelberg 2004, S. 49-73
Klein, M. (Add-In basierte Softwaretools): Add-In basierte Softwaretools zur stochasti-
schen Unternehmensbewertung?, Working Papers in Accounting Valuation Audi-
ting Nr. 2010-7, Nürnberg 2010
Klein, M./Höfner, A.: Proaktives Risikomanagement im Mittelstand. Eine Option zur
frühzeitigen Ableitung von Krisen- und Insolvenzprognosen?, in: KSI 2011, S. 5-12
Klemm-Bax, S. (Erfolgsfaktoren): Erfolgsfaktoren: Ein unscharfer Modellansatz zur
Bestimmung des Unternehmenserfolgs auf der Grundlage empirischer Daten, Pa-
derborn 2000
Kosko, B. (Zukunft ist fuzzy): Die Zukunft ist fuzzy: unscharfe Logik verändert die
Welt, München 1999
Kratzberg, F. (Fuzzy-Szenario-Management): Fuzzy-Szenario-Management. Verarbei-
tung von Unbestimmtheit im strategischen Management, Göttingen 2009
Krebs, P./Müller, N./Reinhardt, S./Schellmann, H./von Bredow, M./Reinhart, G.: Ganz-
heitliche Risikobewertung für produzierende Unternehmen, in: ZWF 2009, S. 174-
181
Krystek, U.: Strategische Frühaufklärung, in: ZfCM 2007, Sonderheft 2, S. 50-58
Kulhavy, H./Unzeitig, E.: Die „Durchleuchtung“ eines Kaufobjekts im Rahmen eines
Unternehmenserwerbs – Ablauf und Arten einer Due Diligence im Überblick, in:
UM 2004, S. 445-451
133
Lämmel, U./Cleve, J. (Künstliche Intelligenz): Künstliche Intelligenz, 3. Aufl., Mün-
chen 2008
Madlener, R./Siegers, L./Bendig, S.: Risikomanagement und -controlling bei Offshore-
Windenergieanlagen, in: ZfE 2009, S. 135-146
Mandl, G./Rabel, K. (Methoden): Methoden der Unternehmensbewertung, in:
Peemöller, V. (Hrsg.): Praxishandbuch der Unternehmensbewertung, 4. Aufl.,
Nürnberg 2009, S. 49-90
Mayer, A./Mechler, B./Schlindwein, A./Wolke, R. (Fuzzy Logic): Fuzzy Logic, Bonn
1993
Mertens, P.: Integration interner, externer, qualitativer und quantitativer Daten auf dem
Weg zum Aktiven MIS, in: WI 1999, S. 405-415
Mertens, P./Meier, M. (Integrierte Informationsverarbeitung): Integrierte Informations-
verarbeitung 2: Planungs- und Kontrollsysteme in der Industrie, 10. Aufl., Wiesba-
den 2009
Mißler-Behr, M. (Fuzzybasierte Controllinginstrumente): Fuzzybasierte
Controllinginstrumente. Entwicklung von unscharfen Ansätzen, Wiesbaden 2001
Momsen, B. (Wissensmanagement): Entscheidungsunterstützung im Wissensmanage-
ment durch Fuzzy regelbasierte Systeme, Göttingen 2006
Mootz, C. (Risikoanalyse): Risikoanalyse geschlossener Immobilienfonds. Grundlagen,
Anforderungen, Praxisbeispiele, Saarbrücken 2007
Mosiek, T.: Risiko Reporting – Konzeptionelle und dv-technische Anforderungen an ein
Risikoberichtswesen, in: ZfCM 2003, S. 15-18
Müller-Stewens, G./Lechner, C. (Strategisches Management): Strategisches Manage-
ment. Wie strategische Initiativen zum Wandel führen, 3. Aufl., Stuttgart 2005
Nauck, D./Klawonn, F./Kruse, R. (Neuronale Netze): Neuronale Netze und Fuzzy Sys-
teme, Braunschweig 1994
Nauck, D./Kruse, R. (Fuzzy-Systeme): Fuzzy-Systeme und Soft-Computing, in:
Biethahn, J./Hönerloh, A./Kuhl, J./Nissen, V. (Hrsg.): Fuzzy Set-Theorie in be-
triebswirtschaftlichen Anwendungen, München 1997, S. 3-22
134
Peemöller, V./Kunowksi, S. (IDW): Ertragswertverfahren nach IDW, in: Peemöller, V.
(Hrsg.): Praxishandbuch der Unternehmensbewertung, 4. Aufl., Nürnberg 2009,
S. 265-338
Peters, T. J./Watermann, R. H. (Spitzenleistungen): Auf der Suche nach Spitzenleistun-
gen, Ulm 2007
Popp, H. (Industrie): Einsatz der Fuzzy-Technik in Industrie und Dienstleistungsbereich
– ein Überblick, in: Biethahn, J./Hönerloh, A./Kuhl, J./Nissen, V. (Hrsg.): Fuzzy
Set-Theorie in betriebswirtschaftlichen Anwendungen, München 1997, S. 23-38
Popp, M. (Lageanalyse): Vergangenheits- und Lageanalyse, in: Peemöller, V. (Hrsg.):
Praxishandbuch der Unternehmensbewertung, 4. Aufl., Nürnberg 2009, S. 169-208
Puppe, F. (Expertensysteme): Einführung in Expertensysteme, 2. Aufl., Heidelberg
1991
Rappaport, A. (Creating): Creating shareholder value, New York 1986
Reinhart, G./Krebs, P./Haas, M./Zäh, M.: Monetäre Bewertung von Produktionssyste-
men. Ein Ansatz zur Integration von qualitativen Einflussfaktoren in die monetäre
Bewertung unter Unsicherheit, in: ZWF 2008, S. 845-850
Rommelfanger, H.: Fuzzy-Logik basierte Verarbeitung von Expertenregeln, in: OR
Spektrum 1993, Heft 15, S. 31-42
Rosenkranz, F./Mißler-Behr, M. (Unternehmensrisiken): Unternehmensrisiken erkennen
und managen – Einführung in die quantitative Planung, Heidelberg 2005
Ruhnke, K.: Unternehmensbewertung: Ermittlung der Preisobergrenze bei strategisch
motivierten Akquisitionen, in: DB 1991, S. 1889-1894
Scheffels, R. (Jahresabschlussprüfung): Fuzzy-Logik in der Jahresabschlussprüfung.
Entwicklung eines wissensbasierten Systems zur Analyse der Vermögens-, Finanz-
und Ertragslage, Wiesbaden 1996
Scherer, A. (Neuronale Netze): Neuronale Netze. Grundlagen und Anwendungen,
Braunschweig 1997
Schmeisser, W./Clausen, L.: Zur Quantifizierung der Kundenperspektive im Rahmen
der Balanced Scorecard, in: DStR 2005, S. 2198-2203
135
Scholl, A. (Befragung): Die Befragung, Konstanz 2003
Schroll, A. (Fuzzy-Control): Bedarfs- und mitarbeitergerechte Dienstplanung mit
Fuzzy-Control, Göttingen 2007
Tesch, J. (Nichtfinanzielle Leistungsindikatoren): Nichtfinanzielle Leistungsindikatoren
im Lagebericht, in: Freidank, C.-C./Müller, S./Wulf, I. (Hrsg.): Controlling und
Rechnungslegung. Aktuelle Entwicklungen in Wissenschaft und Praxis, Wiesbaden
2008, S. 301-317
Tesch, J./Wissmann, R. (Lageberichterstattung): Lageberichterstattung, 2. Aufl., Wein-
heim 2009
Tewald, C.: Integration des Risikomanagements in die Erfolgsfaktoren-basierte
Balanced Scorecard, in: CM 2004, S. 278-284
Theileis, U./Kalhoff, A.: Fuzzy-Mathematik im integrierten Risikomanagement, in:
ZfgK 2000, S. 32-36
Traeger, D. H. (Fuzzy-Logik): Einführung in die Fuzzy-Logik, 2. Aufl., Stuttgart 1994
Unrein, D.: Der Exposure Draft zum Management Commentary-Projekt des IASB. Die
zukünftige Lageberichterstattung nach IFRS, in: PiR 2009, S. 259-266
Urban, M. (Fuzzy-Konzepte): Fuzzy-Konzepte für Just-in-Time Produktion und Be-
schaffung, Frankfurt am Main 1998
Vanini, U.: Strategisches Controlling, in: WISU 2009, S. 1329-1337
Vater, H./Meckel, M./Hoffmann, C./Fieseler, C.: Zur Bedeutung qualitativer Erfolgsfak-
toren der Kapitalmarktkommunikation für die Unternehmensbewertung und deren
Auswirkungen, in: DB 2008, S. 2605-2611
Vester, V. (Vernetztes Denken): Die Kunst vernetzt zu denken: Ideen und Werkzeuge
für einen neuen Umgang mit der Komplexität, 3. Aufl., München 2003
Vose, D. (Risk Analysis): Risk Analysis. A Quantitative Guide, 3. Aufl., Chichester
2008
Werners, B. (Wissensbasierte Systeme): Unterstützung der strategischen Technologie-
planung durch wissensbasierte Systeme, Aachen 1993
Wittland, M.: Management-Informationssysteme, in: WISU 2009, S. 1298-1304
136
Wolf, J. (Fuzzy-Modelle): Lineare Fuzzy-Modelle zur Unterstützung der Investitions-
entscheidung. Modellierung und Lösung von Investitionsproblemen mittels der
Theorie unscharfer Mengen, Frankfurt am Main 1988
Wolf, K./Runzheimer, B. (Risikomanagement): Risikomanagement und KonTraG,
5. Aufl., Wiesbaden 2009
Wurl, H./Mayer, J. (Balanced Scorecards): Balanced Scorecards und industrielles Risi-
komanagement. Möglichkeiten der Integration, in: Klingebiel, N./Hoffmann, O.
(Hrsg.): Performance Measurement und Balanced Scorecard, München 2001,
S. 180-213
Zimmermann, H.-J. (Fuzzy Technologien): Fuzzy Technologien. Prinzipien, Werkzeu-
ge, Potentiale, Düsseldorf 1993
Zimmermann, H.-J.: Using fuzzy sets in operational research, in: European Journal of
Operational Research 1993, S. 205-211
137
Abschnitt B.3
Add-In basierte Softwaretools zurstochastischen Unternehmensbewertung?
Spreadsheet basierte Monte-Carlo-Simulation und Risikoanalysebei den vier marktführenden Softwarepaketen im Vergleich
veröffentlicht als:Working Paper in Accounting Valuation Auditing Nr. 2010-7
abrufbar unter: http://hdl.handle.net/10419/36702(24.02.2011)
ungekürzt als zweiteiliger Beitrag veröffentlicht in:Corporate Finance biz 2011, Heft 1, S. 39-51
Titel: “Add-In basierte Softwaretools zur stochastischen Unternehmensbewertung imVergleich. Teil 1 – Entwicklung des Simulationsmodells”
Corporate Finance biz 2011, Heft 2, S. 108-118“Add-In basierte Softwaretools zur stochastischen Unternehmensbewertung im
Vergleich. Teil 2 – Simulationsdurchführung und Risikoanalyse”
zudem in Teilausschnitten veröffentlicht in:Zeitschrift für Krisen-, Sanierungs- und Insolvenzberatung (KSI) 2011, Heft 1, S. 5-12
Titel: „Proaktives Risikomanagement im Mittelstand“(mit André Höfner, siehe Anlage 3)
138
139
Gliederung
1 Einleitung.............................................................................................................. 141
2 Monte-Carlo-Simulation ....................................................................................... 142
2.1 Historische Entwicklung............................................................................... 142
2.2 Allgemeine Anforderungen an Softwaretools .............................................. 144
2.3 Gegenstand der Untersuchung...................................................................... 145
3 Grundlegende Vorarbeiten.................................................................................... 147
3.1 Erstellung des deterministischen Planungsmodells ...................................... 147
3.2 Definieren und Verwalten von Verteilungen................................................ 148
3.2.1 Deterministische Sensitivitätsanalyse .............................................. 148
3.2.2 Auswahl an Verteilungstypen .......................................................... 151
3.2.3 Unterstützungsfunktionen in der Due Diligence .............................. 153
3.2.4 Verteilungsanpassung und Anpassungstests .................................... 158
4 Definieren von Abhängigkeiten............................................................................ 165
4.1 Einfache Zusammenhänge............................................................................ 165
4.2 Komplexere Zusammenhänge ...................................................................... 169
4.2.1 Copulas............................................................................................. 169
4.2.2 SLURPs............................................................................................ 171
5 Durchführen der Simulation ................................................................................. 173
5.1 Sampling-Methoden und Anzahl der Simulationsläufe................................ 173
5.2 Konvergenzüberwachungsfunktion .............................................................. 174
5.3 Simulationsgeschwindigkeit und Fehlerüberwachung ................................. 175
6 Auswerten und Analyse der Simulationsergebnisse ............................................. 177
6.1 Graphische Darstellung der Outputgrößen ................................................... 177
6.2 Statistische Darstellung der Outputgrößen ................................................... 179
6.2.1 Anforderungen ................................................................................. 179
140
6.2.2 Notwendigkeit zur Berechnung und Darstellung statistischer
Kennzahlen....................................................................................... 180
6.2.3 Leistungsfähigkeit der Programme .................................................. 184
6.3 Stochastische Sensitivitäts- und Szenarioanalyse......................................... 185
6.4 Speichermöglichkeit, Datenaufbereitung und -export.................................. 189
6.5 Limitationen der Risikoanalyse .................................................................... 192
7 Support.................................................................................................................. 193
8 Zusammenfassung und Fazit................................................................................. 195
Literaturverzeichnis ...................................................................................................... 199
141
1 Einleitung
Bei der zukunftsorientierten Unternehmensbewertung handelt es sich um Entschei-
dungssituationen unter Unsicherheit. Die Zustände der Einflussparameter der Unter-
nehmensergebnisse sind im Regelfall unbekannt. Add-In basierte Simulationsprogram-
me liefern eine günstige und leicht umsetzbare Möglichkeit, Unsicherheiten im Due
Diligence Prozess adäquat zu formulieren und Dritten transparent zu machen. Durch
Rückgriff auf die Monte-Carlo-Methode wird die Risikostruktur eines Akquisitionsob-
jekts graphisch und statistisch aufbereitet und der weiteren Risikoanalyse zugänglich
gemacht. Obwohl die Entwicklung und das Angebot Spreadsheet basierter Programme
in den letzten Jahren rasant fortgeschritten ist, konzentriert sich ihr Einsatzgebiet vor-
wiegend auf den finanzwirtschaftlichen Sektor und auf das industrielle Risikomanage-
ment.
Graphische Darstellung Statistische Darstellung Stochastische Sensitivitäts-und Szenarioanalysen
Speichermöglichkeit,Datenaufbereitung und
Datenexport
Anzahl der Simulationsläufe undSampling-Methoden Konvergenzüberwachungsfunktion Simulationsgeschwindigkeit und
Fehlerüberwachung
Einfache Zusammenhänge Komplexere Zusammenhänge
DeterministischeSensitivitätsanalyse
Auswahl anVerteilungstypen
Unterstützungsfunktion undProbability Management in
der Due DiligenceVerteilungsanpassung und
Anpassungstests
Mehrperiodisches DCF-Modell bestehend aus Plan-Bilanz, Plan-GuV und Plan-Kapitalflussrechnung
Supp
ort(
Kap
itel 7
)
Deterministisches Planungsmodell
Durchführen der Simulation
Definieren von Abhängigkeiten
Definieren und Verwalten von Verteilungen
Auswerten und Analyse der Simulationsergebnisse
Kapitel3.1
Kapitel3.2
Kapitel4
Kapitel5
Kapitel6
Abb. 1: Vom deterministischen Planungsmodell zur Ergebnispräsentation
Im folgenden Beitrag wird daher untersucht, inwiefern auch der Due Diligence Prozess
unter Zuhilfenahme von Simulationssoftware (@Risk (Palisade), Crystal Ball (Oracle),
142
ModelRisk (Vose Software) und Risk Solver (Frontline Systems)) im Rahmen der Unter-
nehmensbewertung bereichert werden kann.
Aufbauend auf den allgemeinen Anforderungen an eine Spreadsheet basierte Software-
lösung (Kapitel 2) und den Prozessschritten einer Monte-Carlo-Simulation wird zu-
nächst dargestellt, welche Möglichkeiten die jeweiligen Programme bieten, um die in
der Due Diligence aufgedeckten Wert- und Risikotreiber des Planungsmodells mit ent-
sprechenden Verteilungen zu hinterlegen (Kapitel 3). Des Weiteren wird diskutiert, in-
wieweit es mittels Add-Ins gelingt, Abhängigkeitsbeziehungen zwischen den Inputvari-
ablen des Discounted Cashflow Modells zu berücksichtigen (Kapitel 4). Neben der Si-
mulationsdurchführung (Kapitel 5) werden anschließend die Analysierbarkeit der aus
der Simulation resultierenden Ergebnisse sowie deren Limitationen für den Einsatz in
der Bewertungspraxis aufgezeigt (Kapitel 6). Nach Durchleuchtung der durch die An-
bieter bereitgestellten Supportfunktionen (Kapitel 7) schließt der Beitrag mit einer Zu-
sammenfassung der gewonnenen Erkenntnisse. Basierend auf dem Softwarevergleich
wird dabei die Frage beantwortet, ob und wenn ja welche Programme sich für die sto-
chastische Unternehmensbewertung - insbesondere unter Berücksichtigung des Due
Diligence Prozesses - besonders gut eignen.
2 Monte-Carlo-Simulation
2.1 Historische Entwicklung
Eingang in die breite wissenschaftliche Literatur fand der Begriff - soweit ersichtlich -
im Jahre 1949 durch den Beitrag „The Monte Carlo Method“ der beiden Mathematiker
Metropolis und Ulam im Journal of the American Statistical Association. Die Idee, Ver-
fahren zu entwickeln, mit denen mathematische Probleme auf statistischem Wege mit
Hilfe von Zufallszahlen numerisch gelöst werden können „[…] is referred to as the
Monte Carlo Method“1. Da auch die Simulation in Zusammenhang mit betriebswirt-
schaftlichen Anwendungen auf Zufallszahlen basiert, erinnert der Sachverhalt an Vor-
gänge am Roulettetisch, der streng genommen ebenfalls wie ein Zufallsgenerator arbei-
1 Vgl. Metropolis, N./Ulam, S.: Journal of the American Statistical Association 1949, S. 335-341.
143
tet. Der Name dürfte daher auf ein berühmtes Casino im heutigen Fürstentum Monaco
zurückzuführen sein2.
In Anlehnung an die Untersuchungen von Hertz3 lieferten Coenenberg4 und Bretzke5 vor
einigen Jahrzehnten erste theoretische Denkansätze, die eine Übertragung der Simu-
lationsrechnung sowie der Chancen- bzw. Risikoanalyse einzelner Investitionsprojekte
auf ganze Bewertungsvorgänge ermöglichen sollten. Darauf aufbauend entwickelte
Brunner6 Mitte der siebziger Jahre erstmals ein einfaches, aber in sich geschlossenes
EDV gestütztes Simulationsmodell für die Unternehmensbewertung. Mit der Erforder-
lichkeit einer individuellen Programmierung und dem daraus resultierenden hohen
Aufwand sowie dem Bedarf an statistischem Erfahrungswissen konnte sich die Monte-
Carlo-Simulation in der Bewertungspraxis seinerzeit jedoch nicht durchsetzen. Zu Be-
ginn dieses Jahrtausends wurde in Zusammenhang mit dem Realoptionsansatz von
Schwartz/Moon7 die Monte-Carlo-Simulation zur Bewertung von Wachstumsunterneh-
men der „New Economy“ in der Theorie erneut diskutiert. In der Praxis findet das Ver-
fahren jedoch so gut wie keine Anwendung8. In den letzten Jahren stieg durch das zu-
nehmende Leistungsvermögen Spreadsheet basierter Simulationssoftware das allgemei-
ne Interesse, die Monte-Carlo-Simulation mit der unternehmensspezifischen Planungs-
rechnung zu verbinden9. Im Zuge einer wachsenden Bedeutung in der industriellen Pra-
xis werden seit kurzer Zeit auch die nach IDW S 1 vorgeschlagenen klassischen
Discounted Cashflow (DCF) Bewertungsmodelle mit der Monte-Carlo-Simulation in
Verbindung gebracht. Arbeiten hierzu lieferten u.a. Moser/Schieszl (2001)10, von Weiz-
2 Das Land um das heutige Spielkasino herum wurde früher „Les Spelugues“ genannt. Erst 1866 wur-de es in „Monte Carlo“ umbenannt. Der Name „Carlo“ kommt vom damals herrschenden FürstenPrinz Charles III., dem Urgroßvater des heute herrschenden Fürsten Prinz Rainier III.; vgl. Frey, H.C./Nießen, G.: Monte Carlo, S. 15.
3 Vgl. Hertz, D. B.: Harvard Business Review 1/1964, S. 95-106.4 Vgl. Coenenberg, A. G.: Zeitschrift für Betriebswirtschaft 1970, S. 793-804.5 Vgl. Bretzke, W. R.: Prognoseproblem, S. 189-209.6 Vgl. Brunner, E. M.: Simulationsmodell, S. 23-35.7 Vgl. Schwartz, E. S./Moon, M.: Financial Review 2001, S. 7-26.8 Vgl. Henselmann, K./Barth, T.: Empirie, S. 33.9 Vgl. Bednarczyk, T./Golla, S./Klandt, H.: Finanz-Betrieb 2006, S. 56; Schulten, R.: Controlling
2010, S. 235-237.10 Vgl. Moser, U./Schieszl, S.: Finanz-Betrieb 2001, S. 530-541.
144
säcker/Krempel (2004)11 und Jödicke (2007)12, deren Modelle allesamt auf Excel ba-
sierte Spreadsheets aufbauen. Die Beurteilung der Leistungsfähigkeit von klassischen
Simulationssoftwareprogrammen, die an Spreadsheetmodelle anknüpfen, fanden in die-
sen bisherigen Veröffentlichungen nur sehr unzureichend Berücksichtigung.
Demtentsprechend gering sind die Kenntnisse über die volle Leistungsfähigkeit solcher
Programme im Rahmen der Unternehmensbewertung.
2.2 Allgemeine Anforderungen an Softwaretools
Für den kommerziellen Einsatz von Softwaretools hinsichtlich einer simulationsbasier-
ten Unternehmensbewertung muss die Anwendung gewisse grundlegende Vorausset-
zungen erfüllen.
Aber auch die Intuitivität und Benutzerfreundlichkeit der Arbeitsoberfläche spielen eine
entscheidende Rolle. Dadurch können die Funktionen und Features einfach und zügig
ausgeführt werden. Bezüglich der Unternehmensbewertung sollte das jeweilige Tool
daher über folgende grundlegende Potentiale verfügen:
Eine Einfluss- bzw. Sensitivitätsanalysefunktion, mit welcher sowohl
o im Vorfeld der Simulation die wichtigsten Risiko- und Werttreiber bezüglich
des Ergebnisses identifiziert als auch
o im Anschluss an die Simulation die zuvor definierte Variablenstruktur tieferge-
hend untersucht und konkretisiert bzw. korrigiert werden können;
ein ausreichendes Angebot an stetigen, diskreten und benutzerdefinierten Verteilun-
gen, mit denen Inputfaktoren modelliert und mehrere Verteilungstypen im Rahmen
des Due Diligence Prozesses zusammengeführt werden können;
die Fähigkeit zur zentralen und standardisierten Ablage von benutzerdefiniert er-
stellten Verteilungen, um eine angemessene Umgebung für ein geordnetes und sys-
tematisches Verteilungsmanagment durch entsprechende Spezialisten zu schaffen;
11 Vgl. von Weizsäcker, R. K./Krempel, K.: Finanz-Betrieb 2004, S. 808-814.12 Vgl. Jödicke, D.: Finanz-Betrieb 2007, S. 166-171.
145
die Möglichkeit, einfache Korrelationen oder darüber hinaus mehrdimensionale Ab-
hängigkeiten zwischen den unsicheren Inputgrößen innerhalb einer und/oder zwi-
schen mehreren Perioden zu erstellen;
eine ausreichende Zahl an Simulationsdurchläufen, so dass hinreichend stabile, feh-
lerfreie Ergebnisverteilung generiert werden kann;
verschiedene graphische Darstellungsmöglichkeiten, die eine vielseitige Visualisie-
rung, Untersuchung und Anpassung der erzeugten Ergebnisse (Korrelationen, Sensi-
tivitäten, Statistiken, etc.) direkt auf der Arbeitsoberfläche erlauben;
eine Berichterstellungsfunktion, welche die Ergebnisse der Risiko- bzw. Unterneh-
menswertanalyse auch für Dritte (z.B. Akquisitionsbeteiligte) anhand von Kennzah-
len, statistischen Momenten und Graphiken übersichtlich darstellt und sich für Prä-
sentationen gut in andere Applikationen (Textverarbeitung, Präsentationsfolien, etc.)
überführen lässt;
umfangreiche Supportfunktionen und Erläuterungen zum Erlernen der Software.
2.3 Gegenstand der Untersuchung
Den Gegenstand der Untersuchung bilden die derzeit vier führenden Excel basierten
Simulationsprogramme (Stand 01.06.2010):
Der Hersteller Palisade (USA) bietet mit @Risk seit über zwanzig Jahren ein leis-
tungsfähiges Tool zur Spreadsheet basierten Planungsrechnung an13. Im Rahmen der
Untersuchung wurde das angebotene Produkt @Risk Professional 5.5 näher analy-
siert.
Das ursprünglich im Jahr 1986 von Decisioneering entwickelte und mittlerweile
über Oracle (USA) vertriebene Crystal Ball stellt nach Herstellerangaben derzeit
das meistgenutzte Spreadsheet basierte Simulationsprogramm dar14. Den Gegen-
stand der Untersuchung bildet die aktuelle Version 11.1.1 (Basic Edition).
13 Vgl. Palisade: Risikoanalyse (05.06.2010).14 Vgl. Oracle: Brochure (05.06.2010).
146
Relativ neu am Markt ist das belgische Unternehmen Vose Software. Während die
erste, 2007 erschienene Variante des Programms noch speziell an die Finanz- und
Versicherungsbranche gerichtet war, ist die Version ModelRisk Professional 3.0 an
einen weitreichenderen kommerziellen Kreis adressiert und laut Herstellerangaben
nun auch für die Bewertungspraxis einsetzbar15.
Das Unternehmen Frontline Systems (USA) ist mit der Entwicklung des Solvers für
Microsoft Excel bereits seit 1990 auf dem Gebiet der Spreadsheet basierten Simula-
tionssoftware tätig. Mit der Einführung des eigenen Produkts Risk Solver im Jahr
2007 war es das erste Unternehmen weltweit, welches ein Programm zur interakti-
ven Simulation anbieten konnte16. Gegenstand der Untersuchung bildet die Version
9.5. Ein kürzliches Update (Version 9.6) brachte keine Änderungen der hier darge-
stellten Leistungskapazität mit sich.
Alle Anbieter stellen darüber hinaus weitere Versionen zur Verfügung, die entweder
primär für akademische Ausbildungszwecke oder auf die Lösung von komplexeren Op-
timierungsfragen bei industriellen Entscheidungen zugeschnitten sind. Die Systemvo-
raussetzungen und notwendigen Excel Versionen für eine reibungslose Umsetzung der
jeweiligen Programme sind Abb. 2 zu entnehmen. Das Modell wurde mit Microsoft
Excel 2007 auf den Betriebssystemen Windows XP und Windows 7 konstruiert. An-
schließend wurden die Add-Ins durch zwei Personen unabhängig voneinander auf
Grundlage eines geschlossenen Planungsmodells getestet.
15 Vgl. Vose Software: Compare Versions (05.06.2010).16 Vgl. Savage, S./Brown, A.: Risk Professional 12/2009, S. 37.
147
@Risk Crystal Ball ModelRisk Risk SolverV
ersi
on 5.5Professional
11.1.1Basic Edition
3.0Professional 9.5
Her
stel
ler
Palisade(USA)
Oracle(USA)
Vose Software(Belgien)
Frontline Systems(USA)
UR
L
www.palisade.com www.oracle.com/crystalball/index.html www.vosesoftware.com www.solver.com
Syst
em-
vora
us-
setz
unge
n
ab Windows 2000,Excel 2000
ab Windows 2000,Excel 2000
ab Windows XP,Excel 2003
ab Windows XP,Excel 2003
Abb. 2: Hersteller Add-In basierter Simulationssoftware (Stand: 01.06.2010)
3 Grundlegende Vorarbeiten
3.1 Erstellung des deterministischen Planungsmodells
Analog zur deterministischen Spreadsheet basierten Unternehmensbewertung ist auch
im Rahmen der Monte-Carlo-Simulation zunächst ein Discounted Cashflow (DCF) Pla-
nungsmodell beispielsweise i.S.d. IDW S 1 zu erstellen. Dabei sind die einzelnen Tabel-
lenblätter in Form von Plan-Bilanz, Plan-GuV und Plan-Kapitalflussrechnung so mitei-
nander zu verknüpfen, dass sich ein integriertes Modell ergibt17. Um später eine rei-
bungslose Simulation zu gewährleisten, ist bereits im Vorfeld darauf zu achten, dass
alle Zellen bzw. Tabellenblätter konsistent und richtig miteinander verknüpft werden.
Die meisten Simulationsprogramme sind zwar mittlerweile in der Lage, auftretende
Fehler bei Durchführung der Simulation optional anzuzeigen bzw. zu ignorieren (vgl.
Kapitel 5.3), jedoch verzögert dies den Simulationsdurchlauf bzw. kann bei schwerwie-
genden Fehlern zum Abbruch der Simulation führen. Alle Programme werden mit Hilfe
einer entsprechenden Einstellung im Add-In Manager von Microsoft Excel mit Aufruf
17 Vgl. Baetge, J./Niemeyer, K./Kümmel, J./Schulz, R.: DCF-Verfahren, S. 453-474.
148
des Tabellenkalkulationsprogramms automatisch gestartet und die Excel Befehlsleiste
mit den entsprechenden Features der jeweiligen Programme erweitert. Auf Basis des in
Excel erstellten Planungsmodells sind anschließend zwei Fragen zu beantworten. Wel-
che Wert- und Risikotreiber des Planungsmodells sollten simuliert werden und welche
Verteilungstypen sind dabei heranzuziehen18?
3.2 Definieren und Verwalten von Verteilungen
3.2.1 Deterministische Sensitivitätsanalyse
Bereits im Vorfeld der Monte-Carlo-Simulation kann eine Sensitivitätsanalyse dazu
beitragen, ein entsprechendes Simulationsmodell zu entwickeln, welches nur die wich-
tigsten unsicheren Wert- und Risikotreiber des DCF-Modells berücksichtigt19.
Die von uns durchgeführten Simulationen haben gezeigt, dass eine Integration vieler
Risikovariablen die Auswertung nur unnötig erschwert und derzeit übliche Rechner
schnell an ihre Leistungsgrenzen stoßen. Dies ist darauf zurückzuführen, dass bereits
bei 10.000 Simulationsläufen für jede Periode und für jede definierte Variable die Daten
für 10.000 Inputs und Outputs zur späteren Datenaufbereitung „zwischengespeichert“
werden müssen. Bei einer langen Detailplanungsphase ist diese Datenmenge nicht mehr
verarbeitbar und der Rechner liefert eine entsprechende Fehlermeldung. Auch aus
Komplexitäts- und Übersichtlichkeitsaspekten sollten nur diejenigen Wert- und Risiko-
treiber stochastisch modelliert werden, deren Variation eine bedeutende Wirkung auf
die interessierende Zielgröße - also bspw. den Unternehmenswert oder den Cashflow
bzw. EBIT einer Periode - besitzt.
Dabei spielt auch die Wirtschaftlichkeit eine nicht zu vernachlässigende Rolle. Schließ-
lich müssen alle stochastisch zu hinterlegenden Verteilungen durch das Due Diligence
Team vorher quantifiziert werden20. Obwohl die graphischen Darstellungsformen von
deterministischer und stochastischer Sensitivitätsanalyse (vgl. Kapitel 6.3) optisch kaum
differieren, besteht zwischen beiden Varianten ein grundlegender Unterschied. Während
die vorgelagerte deterministische Analyse unter der ceteris paribus Bedingung nur je-
18 Vgl. Wolf, K.: Controlling 2009, S. 545-552.19 Vgl. Savvides, S.: Project Appraisal 1/1994, S. 3-18.20 Vgl. Vanini, U.: Das Wirtschaftsstudium 2005, S. 1031.
149
weils einen Risikoparameter durch eine entsprechende Abänderung seines deterministi-
schen Werts einbezieht, berücksichtigt die der Simulation nachgelagerte stochastische
Sensitivitätsanalyse die Korrelationen und Auswirkungen aller Inputvariablen auf ein
interessierendes Ergebnis. Dabei werden die Einflussfaktoren einer bereits voll simulier-
ten Outputgröße ohne ceteris paribus Annahme betrachtet. Der Anwender sollte sich
daher im Klaren sein, dass bei stark korrelierten Plangrößen diese deterministische
Vorabanalyse zur Identifizierung der Wert- und Risikotreiber nur bedingt geeignet ist21.
Des Weiteren hängt das Ergebnis der Sensitivitätsanalyse und deren Einfluss auf die
Outputgröße stark vom deterministischen Wert des Planungsmodells ab.
Mit Ausnahme von ModelRisk, das lediglich über ein sehr gutes Feature im Rahmen der
stochastischen Sensitivitätsanalyse verfügt, kann bei allen anderen Programmen auf eine
deterministische Sensitivitätsanalyse zurückgegriffen werden. Bemerkenswert ist das
als „erweiterte Empfindlichkeitsanalyse“ bezeichnete Feature von @Risk. Neben der
prozentualen Änderung eines Basiswerts (z.B. +/-10% des Personalaufwands i.H.v.
500.000 €) können für eine Inputvariable auch ein Minimum und Maximum im Sinne
eines Wertebereichs (z.B. 3% und 5% zur Modellierung der Wachstumsrate) eingege-
ben werden. Das Hinterlegen der Schrittanzahl (z.B. 10) sorgt für eine gleichmäßige
Verteilung der einzelnen Intervalle (z.B. +/-1%, +/-2%, etc.). Darüber hinaus verfügt
@Risk auch über die Möglichkeit, interessierende Werte individuell einzugeben und
ferner erste Verteilungsschätzungen des Due Diligence Teams durch die Angabe ent-
sprechender Quantile zu simulieren (z.B. Festlegung einer Normalverteilung mit Mit-
telwert 4% und Standardabweichung 1% zur Simulation der Wachstumsrate: „Welcher
Unternehmenswert würde sich z.B. im 1%-, 25%- oder 75%-Perzentil dieser durch die
Normalverteilung abgebildeten Wachstumsrate ceteris paribus ergeben?“). Graphisch
lässt sich diese quantilsweise Betrachtung mit Spinnendiagrammen darstellen. Neben
weiteren Darstellungsmöglichkeiten (u.a. Tornadocharts, Box Whisker Plots) verfügt
@Risk auch über mehrere Möglichkeiten zur statistischen Darstellung der Ergebnisse
der Sensitivitätsanalyse (Eingabebericht, vollständiger Übersichtsbericht, verkürzter
Schnellbericht).
21 Vgl. Willeke, A.: Zeitschrift für betriebswirtschaftliche Forschung 1998, S. 1149-1151.
150
Crystal Ball und Risk Solver greifen auf einfachere Tools zurück22. Jedoch lassen sich
auch hier problemlos %-Abweichungen vom Basiswert (+/-10%) sowie die minimale
und maximale Ausprägung einer Inputvariable angeben und schrittweise staffeln. Ob-
wohl eine quantilsweise Vorabsimulation mittels Verteilungen im Gegensatz zu @Risk
und Crystal Ball nicht möglich ist, kann Risk Solver durch eine gute statistische Ergeb-
nisaufbereitung überzeugen. Graphisch erfolgt die Darstellung im Tornadochart und
einem wenig aussägekräftigen 3-D-Sensitivitätschart. Aufgrund einer fehlenden
quantilweisen Betrachtung ist eine Darstellung in Form eines Spinnendiagramms - an-
ders als bei @Risk und Crystal Ball - nicht nötig bzw. möglich.
Im Rahmen der praktischen Anwendung sollte die deterministische Sensitivitätsanalyse
zunächst - obwohl dies bei @Risk und Crystal Ball möglich ist - ohne komplizierte Ver-
teilungen getestet werden. Vielmehr geht es zunächst darum, die Haupteinflussfaktoren
grob zu identifizieren, um eine Aussage darüber treffen zu können, welche Werttreiber
im Due Diligence Prozess besonders sensitiv zu modellieren sind.
@Risk Crystal Ball ModelRisk Risk Solver
deterministischeSensitivitätsanalysemöglich?
ja,sehr umfangreich,auch Verteilungen
ja,auch Verteilungen nein
ja,klassische Variante,keine Verteilungen
graphische undstatistischeDarstellung?
Tornadochart,Spinnendiagramm,
Änderungs(%)-Diagramm u.a.;
sehr gute Statistik
nur Tornadochart &Spinnendiagramm;limitierte Statistik
---nur Tornadochart &
3-D-Chart;gute Statistik
Abb. 3: Deterministische Sensitivitätsanalyse
Sind unter Anwendung der deterministischen Sensitivitätsanalyse die wichtigsten Wert-
treiber identifiziert worden, müssen diese mit Verteilungen hinterlegt werden, die deren
Risikostruktur entsprechen. Des Weiteren sind auch Risiken zu quantifizieren, die nicht
unmittelbar als Schwankungsbandbreite im Planungsmodell abzubilden sind (z.B. Aus-
wirkung auf die Absatzmenge bei Eintritt eines neuen Konkurrenten). Die Auswahl und
Abbildung dieser Risiken mittels entsprechender Verteilungen ist eine wichtige Aufga-
be im Due Diligence Prozess.
22 Vgl. Frontline Systems: Risk Solver User Guide, S. 100-107.
151
3.2.2 Auswahl an Verteilungstypen
Im Rahmen der Unternehmensbewertung empfiehlt sich aus Anwendersicht die Wahl
jener Verteilungstypen, die durch wenige oder gänzlich ohne Parameter bestimmt wer-
den können23. Die meisten der scheinbar einfach gestrickten nicht-parametrischen Ver-
teilungsfunktionen (z.B. PERT-Verteilung24, Dreiecksverteilung und Gleichverteilung)
haben sich bereits in der investitionstheoretischen Anwendung in vielerlei Hinsicht als
sehr robust erwiesen25.
Der Nachteil parametrischer Verteilungen - wie z.B. der Normal-, Beta- und Weibull-
verteilung - besteht darin, dass die durch den Anwender zu wählenden Parameter nur
geringfügig mit der Verteilungsform in Verbindung stehen26. Soll im Rahmen der Be-
wertung dennoch auf parametrische Verteilungen zurückgegriffen werden, sind an das
Softwareprogramm hinreichende Anforderungen hinsichtlich seiner statistischen Erläu-
terungen, wie bspw. die Bedeutung der einzelnen Verteilungsparameter für die Ausprä-
gung der Verteilungsform, zu stellen. Der Einsatz parametrischer Verteilungen eignet
sich bspw. dann, wenn Chancen bzw. Risiken eines Werttreibers vornehmlich in den
Randbereichen einer Verteilung, den sog. „tails“, auftreten.
Grundsätzlich bieten alle Programme eine hinlänglich breite Auswahl an Standardver-
teilungen, welche über die Variation der entsprechenden Verteilungsparameter an die
individuellen Vorstellungen angepasst werden können. Für komplexere Modelle eignet
sich insbesondere ModelRisk, da dieses Programm eine besonders große Vielfalt para-
metrischer Verteilungen enthält. Dementsprechend gut können subjektiv (Due Diligen-
ce) bzw. objektiv erhobene Datensample an eine Vielzahl von Verteilungen angepasst
werden (vgl. Kapitel 3.2.4). Bei allen Programmen wird durch das Aufrufen der ent-
sprechenden Symbolleiste und durch Auswahl der jeweiligen Zelle die gewünschte Ver-
teilung zuordenbar (vgl. Abb. 4). Mit Ausnahme von Crystal Ball sind Verteilungsfunk-
tionen und die Funktionsargumente auch direkt und uneingeschränkt als Excel-Funktion
(z.B. =RiskNormal (500;20) zur Darstellung einer Normalverteilung mit Mittelwert 500
23 Vgl. Kegel, K. P.: Risikoanalyse, S. 126.24 Vgl. Kotiah, T./Wallace, N.: Management Science 1973, S. 44-49.25 Vgl. Raftery, J.: Risk Analysis, S. 85.26 Vgl. Vose, D.: Risk Analysis, S. 402.
152
Einheiten und Standardabweichung 20 Einheiten) in der jeweiligen Zelle zu erfassen.
Als dritte Variante können Verteilungen zudem über das Aufrufen des Formeleingabe-
fensters in Excel definiert werden. Hierbei sind zugleich auch Informationen über die
jeweilige Verteilungsform verfügbar.
Abb. 4: Einfügen von Verteilungen ins geschlossene Planungsmodell (Crystal Ball)
Zwar unterstützt auch Crystal Ball diese beiden alternativen Möglichkeiten, jedoch un-
terliegen die direkt bzw. im Formeleingabefenster erfassten Verteilungen erheblichen
Einschränkungen (keine Korrelationsdefinition möglich, keine Diagrammausgabe mög-
lich etc.)27. Eine Erläuterung der festzulegenden Verteilungsparameter im Formeleinga-
befenster wird lediglich durch die Software @Risk sowie durch ModelRisk geboten.
Auch die im Formeleingabefenster enthaltene Hilfefunktion wird bei beiden Software-
tools unterstützt. ModelRisk liefert zudem einen Hinweis, falls eine Verteilung in der
Excel Zelle falsch parametrisiert wurde28. Das Tool leistet somit hinsichtlich einer ziel-
gerichteten Verteilungsmodellierung besonders gute Dienste (vgl. Abb. 5).
27 Vgl. Oracle: Crystal Ball User Guide, S. 285.28 Wird bspw. eine Normalverteilung mit =VoseNormal(0,-1) definiert, folgt die Fehlermeldung: „Er-
ror: sigma must be >=0“. @Risk liefert „#VALUE!“, Crystal Ball „#NUM!“.
153
Häufig stellt sich jedoch die Frage, welche dieser Verteilungen dem jeweiligen Wert-
und Risikotreiber zugeordnet werden soll. Die Auswahl und richtige Definition der Ver-
teilungen sind folglich wichtige Aufgaben im Rahmen des Due Diligence Prozesses.
@Risk Crystal Ball ModelRisk Risk Solver
Anzahl verfügbarerVerteilungen? 41 22 107 47
Art der klassischenVerteilungstypen?
parametrischund
nicht-parametrisch
parametrischund
nicht-parametrisch
parametrischund
nicht-parametrisch
parametrischund
nicht-parametrisch
verbale ErläuterungderVerteilungsartenbzw. -parameter?
ja
keine Erläuterungder
Verteilungs-parameter
ja
keine Erläuterungder
Verteilungs-parameter
verbale Erläuterungbei ungültigenParametereingabenim Formeleingabe-fenster (Excel)?
nur Fehlermeldungohne Erklärung,
Hilfefunktion wirdunterstützt
nur Fehlermeldungohne Erklärung,
Hilfefunktion wirdnicht unterstützt
Fehlermeldung mitErklärung,
Hilfefunktion wirdunterstützt
nur Fehlermeldungohne Erklärung,
Hilfefunktion wirdnicht unterstützt
Abb. 5: Features im Hinblick auf die Definition von Verteilungen
3.2.3 Unterstützungsfunktionen in der Due Diligence
Aufgrund des mit einer mangelnden Datengrundlage einhergehenden Problems, für die
identifizierten Wert- und Risikotreiber objektive Verteilungen zu bestimmen, sind in der
simulationsspezifischen Praxis häufig subjektive Wahrscheinlichkeiten heranzuziehen.
Durch entsprechende benutzerdefinierte Verteilungen kann Erfahrungs- und Spezialwis-
sen für den Bewertungsvorgang nutzbar gemacht werden. Deren Einsatz empfiehlt sich
insbesondere dann, wenn sich eine akzeptable Qualität solcher Schätzungen durch ge-
eignete Verfahren sicherstellen lässt29. Durch entsprechende Arbeitsschritte sind im
Rahmen der Due Diligence auf Basis von Expertenbefragungen benutzerdefinierte Ver-
teilungen abzuleiten30. Das eingesetzte Softwareprogramm sollte deshalb auch über
Features verfügen, welche die graphische Visualisierung der zu treffenden Entscheidung
29 Vgl. Gleißner, W.: Controlling Berater 2007, S. 566.30 Vgl. Henselmann, K./Klein, M.: M&A Review 2010, S. 361-365.
154
und die Zusammenführung unterschiedlicher subjektiver, von den einzelnen Mitgliedern
des Due Diligence Teams abgegebenen Verteilungen erlauben.
Das gewichtete Zusammenführen verschiedener Verteilungen mehrerer Experten ist
durch @Risk und Risk Solver mithilfe der Funktionen RiskDiscrete bzw. PsiDiscrete
indirekt möglich31. Mit dem eigens für die Verteilungsaggregation vorgesehenen
Combined-Distribution-Feature von ModelRisk können verschiedene Funktionen nicht
nur indirekt, sondern auch unmittelbar zusammengefügt werden. Während mit den üb-
rigen Anbietern des Weiteren jeweils nur stetige oder diskrete Funktionen benutzerdefi-
niert nachgebildet werden können, gestaltet sich die Möglichkeit der gestückelten,
gleichzeitigen Modellierung von stetigen und diskreten Verteilungen im Rahmen von
Crystal Ball‘s Custom Distribution Feature interessant. Hinsichtlich der Anwendung im
Rahmen des Due Diligence Prozesses lassen sich so Wahrscheinlichkeiten für Intervalle
unterschiedlicher Länge direkt eingeben. Hilfreich sind auch die graphischen Unterstüt-
zungsfunktionen von @Risk und ModelRisk, mit welcher der jeweilige Experte (z.B.
Teamleiter eines Due Diligence Bereiches) eine individuelle Verteilung nach seinen
oder den Vorstellungen der Teammitglieder zeichnen und zur weiteren Diskussion und
Konkretisierung - bspw. über PowerPoint - präsentieren kann. Dabei ist auch ein Ver-
gleich der gezeichneten Verteilung mit den im Programm verfügbaren Verteilungen
möglich. Stimmt die im Rahmen des Due Diligence Prozesses ermittelte Zeichnung mit
einer oder mehrerer der standardmäßig vorliegenden Verteilungen hinreichend überein,
so empfiehlt sich zur Vereinfachung der Modellierungsstruktur eine Anpassung der
gezeichneten Datenpunkte an vergleichbare Verteilungen (vgl. Kapitel 3.2.4). Darüber
hinaus erlauben alle vier Programme die Abänderung vordefinierter Funktionen zur
Generierung und Speicherung neuer, individualisierter Verteilungen (z.B. Beschränkung
einer „offenen“ Normalverteilung auf positive Werte) in einer Datenbibliothek, einer
sog. Library.
Erheblich komplizierter als bei verteilungsbasierten Risiken (z.B. einer Absatzmengen-
schwankung) verläuft die Zuordung einer ereignisorientierten Größe zum Bewertungs-
modell. Neben der Ausfallhäufigkeit ist hier auch die damit verbundene Schadenshöhe
abzuschätzen. Ein Beispiel stellt etwa das Abwerben von Personal in Schlüsselpositio-
31 Vgl. Klein, M.: Due Diligence, S. 20.
155
nen dar. Sowohl Eintrittswahrscheinlichkeit als auch Schadenshöhe können einer unter-
schiedlichen Verteilung folgen. Nach deren getrennter Bestimmung in der Due Diligen-
ce müssen die beiden Verteilungen zusammengeführt werden32. Für die Quantifizierung
dieser Risiken bieten Crystal Ball und Risk Solver nur die Möglichkeit, Eintrittswahr-
scheinlichkeit und Eintrittshöhe über eine entsprechende Formel zu multiplizieren. Die-
se Vorgehensweise hat jedoch den Nachteil, dass sie u.U. zu nicht korrekten Ergebnis-
sen führt33. Deshalb stellen @Risk und ModelRisk ein Tool bereit, welches die direkte
Aggregation von Schadenshöhen- und Schadenshäufigkeitsverteilung unterstützt.
Aus Kosten-Nutzen-Aspekten bietet es sich an, nicht für jeden zeitnahen Bewertungs-
vorgang eine neue Verteilungsabschätzung vorzunehmen. Dies gilt insbesondere dann,
wenn mehrere dezentrale Due Diligence Einheiten vor dem gleichen Problem stehen.
Hierbei kann ein dezentralisiertes Probability Management wertvolle Dienste leisten.
Die Grundidee des Probability Managements liegt darin begründet, in einer extern zug-
reifbaren Stochastic Library - also einer Datenbibliothek - bereits vorgefertigte und für
jeden Bewertungsprozess einsetzbare Verteilungen zu hinterlegen, die von Experten
erstellt und geprüft wurden34. Hierbei eignen sich beispielsweise Mitglieder eines zent-
ralen Due Diligence Teams mit vertieften statistischen Kenntnissen oder auch externe
Sachverständige. Sind etwa zwei Unternehmen bzw. Geschäftsbereiche mit dem Ölpreis
als Hauptwerttreiber zeitgleich und unabhängig voneinander zu bewerten, so könnte
eine dem Sachverhalt entsprechende Verteilung in einer zentralen Datenbibliothek ab-
gelegt und durch die beiden Due Diligence Teams gleichzeitig genutzt werden. Damit
wird gewährleistet, dass vergleichbare Bewertungsfälle vergleichbar modelliert werden
und so kohärente Modelle entstehen. Eine aufwendige, ggf. parallele Generierung von
Verteilungen für verschiedene Bewertungsfälle ist durch die standardisierte Verteilung
damit nicht nötig.
32 Vgl. Hölscher, R./Kalhöfer, C./Bonn, R.: Finanz-Betrieb 2005, S. 498.33 Vgl. Henselmann, K./Klein, M.: M&A Review 2010, S. 366.34 Zum „Probability Management“ vgl. Savage, S./Scholtes, S./Zweidler, D.: OR/MS Today 2006,
S. 21-28 und S. 60-66 sowie Savage, S./Brown, A.: Risk Professional 12/2009, S. 35-39.
156
Säulen des Probability Managements in der Unternehmensbewertung
Individuell standardisierbareVerteilungen
SystematischesVerteilungsmanagementStochastic Library
• standardisiert speicherbareVerteilungen bilden dieGrundlage für kohärenteBewertungsmodelle
• stellen den „Äpfel mitÄpfeln“-Vergleich sicher
• besondere Unterstützung durchSIPs und SLURPs, welchebereits generierte Trials derInputs kompakt erfassen, dieanschließend im Rahmen derSimulationsdurchführungsequentiell abgearbeitetwerden
• externe Bibliothek zurzentralen Ablage von durchExperten erstellten und/odergeprüften Verteilungen
• Einsatz der zertifiziertenVerteilungen inunterschiedlichenUnternehmensbewertungenund durch verschiedene DueDiligence Teams (z.B.Währungskurse,Rohstoffpreise) zur Wahrungder Kohärenz und ausWirtschaftlichkeitsaspekten
• Verteilungserstellung bzw.Organisation vonExpertenworkshops zurFestlegung vonVariablenstrukturen durch einzentrales Due Diligence Teammit erweiterten statistischenKenntnissen
• Verwaltung der Libraries imSinne einer regelmäßigenÜberprüfung undAktualisierung der hinterlegtenVerteilungsdefinitionen
• Unterstützung der dezentralenDue Diligence Teams bei derVerteilungswahl im Rahmendes Bewertungsprozesses
Säulen des Probability Managements in der Unternehmensbewertung
Individuell standardisierbareVerteilungen
SystematischesVerteilungsmanagementStochastic Library
• standardisiert speicherbareVerteilungen bilden dieGrundlage für kohärenteBewertungsmodelle
• stellen den „Äpfel mitÄpfeln“-Vergleich sicher
• besondere Unterstützung durchSIPs und SLURPs, welchebereits generierte Trials derInputs kompakt erfassen, dieanschließend im Rahmen derSimulationsdurchführungsequentiell abgearbeitetwerden
• externe Bibliothek zurzentralen Ablage von durchExperten erstellten und/odergeprüften Verteilungen
• Einsatz der zertifiziertenVerteilungen inunterschiedlichenUnternehmensbewertungenund durch verschiedene DueDiligence Teams (z.B.Währungskurse,Rohstoffpreise) zur Wahrungder Kohärenz und ausWirtschaftlichkeitsaspekten
• Verteilungserstellung bzw.Organisation vonExpertenworkshops zurFestlegung vonVariablenstrukturen durch einzentrales Due Diligence Teammit erweiterten statistischenKenntnissen
• Verwaltung der Libraries imSinne einer regelmäßigenÜberprüfung undAktualisierung der hinterlegtenVerteilungsdefinitionen
• Unterstützung der dezentralenDue Diligence Teams bei derVerteilungswahl im Rahmendes Bewertungsprozesses
Abb. 6: Bestandteile des Probability Managements in der Unternehmensbewertung
Jedoch muss beachtet werden, dass zur Gewährleistung einer ordnungsmäßigen Unter-
nehmensbewertung auf Basis des Probability Managements die regelmäßige Überprü-
fung und Aktualisierung (z.B. hinsichtlich der konjunkturellen Entwicklung) der benut-
zerdefinierten Verteilungen zwingend erforderlich ist. Für eine sachgerechte Umsetzung
des Probability Managements empfiehlt sich daher der Einsatz primär für große Bewer-
tungs- bzw. M&A-Gesellschaften mit entsprechenden Kapazitäten.
Risk Solver bietet mit der Certified-Distribution-Function ein umfassendes Probability-
Management-Feature. Zwar verfügt Risk Solver über keine ausdrückliche Library-
Funktion, jedoch können benutzerdefinierte Verteilungstypen als Excel- oder Add-In-
Workbook per E-Mail, Firmennetzwerk oder analog (z.B. DVD) arbeitsplatzübergrei-
fend eingelesen werden35. Auch die übrigen Anbieter verfügen über Funktionen, um
benutzerdefinierte Verteilungen zu speichern und Dritten analog oder per Netzwerkver-
bindung zugänglich zu machen. Während @Risk und ModelRisk auf Library-
Funktionen zurückgreifen, wird dies bei Crystal Ball insbesondere auch durch eine be-
reits im Programm eingebettete E-Mail Funktion unterstützt.
35 Vgl. Frontline Systems: Risk Solver User Guide, S. 215-220.
157
Eine Weiterentwicklung zur Erzeugung kohärenter Bewertungsmodelle stellen sog.
SIPs (Stochastic Information Packet) dar. Diese können simulierte Outputs einer Certi-
fied Distribution auf kompakte, sequentielle Weise speichern. In Anlehnung an obiges
Beispiel könnten 10.000 Simulationen (Trials) aus der Ölpreisverteilung simuliert wer-
den, wodurch man 10.000 Datensample erhält, welche wiederum als Inputvariable se-
quentiell in das DCF-Bewertungsmodell (bspw. zur Abschätzung des Materialaufwands
der ersten Planperiode) nacheinander eingesetzt und abgearbeitet werden. So erhält man
als Output ceteris paribus über 10.000 verschiedene Datensamples eines Cashflows. Das
aus der standardisierten Verteilung ermittelte Datensample kann ebenfalls in einer
Stochastic Library gespeichert und - zur Wahrung der Kohärenz - für die beiden Bewer-
tungsfälle genutzt werden. Mit der Funktion PsiSip kann Risk Solver SIPs (z.B. ein SIP
für 10.000 simulierte Ölpreise) in das Bewertungsmodell integrieren. Auch @Risk,
ModelRisk und Crystal Ball bieten die Möglichkeit, sequentielle Daten einer Certified
Distribution abzuarbeiten. Bei @Risk und ModelRisk kann dies direkt über Library-
Funktionen erfolgen, die Teammitglieder zudem untereinander vernetzen36. Bei Crystal
Ball wird dies auf Basis der Custom Distribution verwirklicht, welche die sequentielle
Abarbeitung der in einer Excel Spalte gespeicherten Daten im Rahmen des Bewer-
tungsmodells erlaubt37. Die SIPs können dann entweder selbst erstellt und für andere
Anwender zentralisiert oder bereits zentral erstellte SIPs über ein Netzwerk angefordert
werden38. Werden mehrere SIPs zusammengeführt, entstehen sog. SLURPs (Stochastic
Library Unit with Relationships Preserved), die für eine korrelierte und kohärente Be-
wertung - auch über verschiedene Geschäftsbereiche hinweg - sorgen können (vgl. hier-
zu Kapitel 4.2.2).
36 Vgl. Palisade: @Risk Benutzerhandbuch, S. 692-693.37 Vgl. Oracle: Crystal Ball User Guide, S. 285-287.38 Vgl. Oracle: Crystal Ball User Guide, S. 59-60.
158
@Risk Crystal Ball ModelRisk Risk Solver
benutzerdefinierte(subjektive)Verteilungen?
sowohldiskrete und stetige
sowohldiskrete und stetige;
umfangreichesFeature „Custom
Distribution“
sowohldiskrete und stetige
sowohldiskrete und stetige
benutzerdefinierteVerteilung mitmehreren diskretenund stetigenElementen möglich?
nicht möglich ja, sehr gut möglich nicht möglich nicht möglich
gewichtete Zusam-menführung vonVerteilungenmehrerer Experten?
indirekt(RiskDiscrete) nein
indirekt(VoseDiscrete)
und direkt möglich
indirekt(PsiDiscrete)
graphischeUnterstützung zurExpertenschätzung(Due Diligence)?
ja nein ja nein
Aggregation vonVerteilungenmöglich?
ja nein, nur durchMultiplikation ja nein, nur durch
Multiplikation
Zentralisierungbzw. Dezentralisie-rung vonVerteilungen?
ja, lokal undfirmenübergreifend
(Library)
ja, lokal undfirmenübergreifend(Library, via E-Mail)
ja, lokal undfirmenübergreifend
(Library)
ja, lokal undfirmenübergreifend(aber keine Library)
Abb. 7: Unterstützungsfunktionen in der Due Diligence
3.2.4 Verteilungsanpassung und Anpassungstests
Grundsätzlich ist die Wahl der Verteilung je nach Unsicherheit und/oder Bewertungsfall
zu treffen, wobei eine Verallgemeinerung i.d.R. nicht möglich ist39. Die Problematik
besteht nun darin, dass häufig mehrere Verteilungen gleichzeitig in Frage kommen
könnten. Um herauszufinden, welcher Verteilung Risikohöhe und Risikohäufigkeit fol-
gen, ist die Häufigkeitsverteilung der empirischen (Marktbeobachtung) bzw. subjektiv
erfragten Werte (z.B. im Rahmen einer Due Diligence) zu betrachten und deren Form
mit den Verläufen bekannter theoretischer Verteilungen zu vergleichen40. Zur Errech-
39 Vgl. Krebs, P./Müller, N./Reinhardt, S./Schellmann, H./von Bredow, M./Reinhart, G.: Zeitschrift fürwirtschaftlichen Fabrikbetrieb 2009, S. 177.
40 Vgl. Rosenkranz, F./Missler-Behr, M.: Unternehmensrisiken, S. 241.
159
nung der bestmöglichen Verteilungen aus objektiven bzw. subjektiv erfragten Daten
existieren verschiedene Verfahren:
Den einfachsten Fall stellt hierbei die auf Pearson zurückgehende
Momentenmethode dar. Die zu schätzenden Verteilungsparameter werden zunächst
in Abhängigkeit von zentralen Momenten ausgedrückt. Anschließend werden auf
Basis der empirisch erhobenen Werteproben Schätzwerte für die entsprechenden
Momente berechnet. In Ermangelung einer umfassenden Anwendungsfähigkeit
(nicht alle Standardfunktionen sind durch berechenbare zentrale Momente zu be-
schreiben) kommt dieser Methode in der Praxis häufig keine nähere Bedeutung zu41.
Im Rahmen der Maximum-Likelihood-Methode wird die vorliegende Standardvertei-
lung mit ihren zu bestimmenden Parametern zunächst in eine sog. Likelihood-
Funktion überführt, welche die Eintrittswahrscheinlichkeiten für die einzelnen Er-
gebnisse angibt. Die Verteilungsparameter werden schließlich über Differentiation
so ermittelt, dass die Likelihood-Funktion einen maximalen Ergebniswert annimmt,
wobei die Wahrscheinlichkeit der Übereinstimmung der angepassten Verteilung mit
dem empirischen Datensample am größten ist. Mit der universellen Einsatzfähigkeit
für Dichte- und Wahrscheinlichkeitsfunktionen und ihrer steigenden Anpassungsge-
nauigkeit mit der Anzahl der Datenpunkte besitzt diese Methode zwei wichtige Ei-
genschaften, die dazu führen, dass dieses Verfahren zur Ermittlung geeigneter
Schätzfunktionen am häufigsten Anwendung findet42.
Beim Verfahren der kleinsten Quadrate wird die Parameterbestimmung der vorlie-
genden Standardkurve so vorgenommen, dass die Summe der quadrierten Abwei-
chungen der Kurve von den empirischen Datenpunkten minimal ist. Die sich dabei
ergebenden Parameterwerte sind diejenigen, welche die zugehörigen Dichte- bzw.
Summendaten am besten repräsentieren43.
Alle untersuchten Programme nutzen die Maximum-Likelihood-Methode zur Vertei-
lungsanpassung für Werteprobendaten. Da mit dieser Methode bei einer geringen An-
zahl von Werteproben erhebliche Ungenauigkeiten auftreten können, greift @Risk zur
41 Vgl. Boes, D./Graybill, F./Mood, A.: Introduction, S. 274-276.42 Vgl. Davidson, R./MacKinnon, J.: Econometric, S. 399-401.43 Vgl. Robert, C./Casella, G.: Monte Carlo, S. 6-7.
160
Steigerung der Anpassungsqualität auch auf die Momentenmethode zurück, um so über
ein hybrides Verfahren bestehende Verzerrungen auszugleichen. Des Weiteren ermög-
licht @Risk als einziges Programm die Verteilungsanpassung von Summen- und Dich-
tedaten anhand des Verfahrens der kleinsten Quadrate.
Die Übereinstimmung einer angepassten Verteilung mit dem korrespondierenden empi-
rischen Datensample kann graphisch mit Hilfe von Cumulative Distribution Function-
Diagrammen (CDF-D), Quantile-Quantile-Diagrammen (QQ-D), Probability-
Probability-Diagrammen (PP-D) und/oder Vergleichsdiagrammen (VD) ausgewertet
werden (vgl. Abb. 8).
Beim CDF-D werden in einem Koordinatensystem die Abstände zwischen der gefitte-
ten kumulativen Verteilungsfunktion und der kumulativen Verteilungsfunktion der zu-
grunde liegenden Daten graphisch gegeneinander abgetragen. Bei totaler Übereinstim-
mung würde sich eine flache Linie ergeben, die parallel zur Abszisse verläuft. Das QQ-
D vergleicht die empirischen Quantile einer stetigen Verteilung mit den theoretischen
Quantilen einer bestimmten Verteilung und stellt beide in einem Diagramm dar. Sofern
sich die beiden Quantilswerte annähernd entsprechen, d.h. möglichst genau auf einer
Diagonalen liegen, kann davon ausgegangen werden, dass die historischen oder die in
der Due Diligence erfragten Daten die angenommene theoretische Verteilung besitzen.
Gleiches gilt für das PP-D, welches jedoch keine Quantile, sondern die kumulierte Häu-
figkeit der Wertprobedaten im Vergleich zur in Frage kommenden kumulativen Vertei-
lung graphisch darstellt44. Beim Vergleichsdiagramm kann hingegen durch optische
Vergleiche eine erste Auswahl an in Frage kommenden Verteilungen erfolgen45.
44 Vgl. Rosenkranz, F./Missler-Behr, M.: Unternehmensrisiken, 2005, S. 243.45 Vgl. Klein, R./Scholl, A.: Planung, S. 286.
161
Abb. 8: CDF-, PP- und optisches Vergleichsdiagramm (Risk Solver)
Da insbesondere bei relativ wenig vorhandenen Datenpunkten mehrere Verteilungen
möglich sind und der graphische Vergleich keine eindeutige Lösung liefert, muss das
Softwareprogramm zusätzlich die Qualität der Verteilungsanpassung mittels statisti-
scher Größen darstellen (vgl. Abb. 10). Zur quantitativen Beurteilung der Anpassungs-
qualität eignen sich sog. „Goodness-of-Fit Tests“. Gängige Varianten sind der „Chi-
Quadrat-Test“ (CQ-T), der „Anderson-Darling-Test“ (AD-T) und der „Kolmogorov-
Smirnoff-Test“ (KS-T), die sich hinsichtlich ihrer Berechnungsweise unterscheiden.
Dabei sind u.a. folgende Limitationen zu beachten (vgl. Abb. 9)46:
Der Chi-Quadrat-Test und der Kolmogorov-Smirnoff-Test können auf jede Form von
Datenmaterial angewendet werden (Rohdatensample oder bereits aufbereitetes His-
togramm). Der Anderson-Darling-Test setzt hingegen ein Rohdatensample voraus.
46 Vgl. Liebl, F.: Simulation, S. 136.
162
Sofern dieses Datensample lediglich in Form eines bereits verdichteten Histogramms
vorliegt, eignet sich der Anderson-Darling-Test nicht.
Klassische Anpassungstests
Chi-Quadrat-Test Kolmogorov-Smirnoff-TestAnderson-Darling-Test
• Daten müssen in einHistogramm überführt undmit der in Frage kommendenVerteilung verglichen werden
• setzt eine sehr große Zahl anDatenpunkten voraus
• das Fitting hängt von der Formdes Histogramms ab (Anzahlder Histogrammbalken, Breiteder Balken)
• Vergleich der kumulativenVerteilungsfunktion dererhobenen Daten mit der inFrage kommenden(kumulativen)Verteilungsfunktion
• Flächeninhalt zwischen denbeiden kumulativenVerteilungsfunktionen dient alsEntscheidungskriterium
• nicht für diskreteVerteilungstypen geeignet
• Vergleich der kumulativenVerteilungsfunktion dererhobenen Daten mit der inFrage kommenden(kumulativen)Verteilungsfunktion
• maximaler vertikaler Abstandals Entscheidungskriterium
• nicht für diskreteVerteilungstypen geeignet
• konzentriert sich tendenziellauf die Verteilungsmitte
Abb. 9: Eigenschaften und Voraussetzungen zur Verwendung von Anpassungstests
Der Kolmogorov-Smirnoff-Test und der Anderson-Darling-Test sind grundsätzlich
nicht bei diskreten Verteilungstypen anwendbar.
Beim Chi-Quadrat-Test hängt das „Fitting“ von der jeweiligen Form des Histog-
ramms ab (Anzahl und Breite der festgelegten Balken). Zudem setzt der Test eine
sehr große Anzahl an Datenpunkten voraus.
Die durch den Anpassungstest erzeugten Vorschläge beschreiben lediglich ein
Gütemaß, ob die an das jeweilige Datensample approximierte Wahrscheinlichkeitsver-
teilung die beobachteten oder per Expertenbefragung erhobenen Datenwerte produziert
haben könnte (vgl. Abb. 10). Nicht beantwortet wird jedoch, ob hinter den erhobenen
oder beobachteten Werten auch tatsächlich die angenommene theoretische Verteilung
steht47.
Mit Ausnahme von ModelRisk greifen alle Programme auf den Chi-Quadrat-Test, den
Anderson-Darling-Test bzw. den Kolmogorov-Smirnoff-Test zurück. Dabei können
sowohl diskrete als auch stetige Verteilungen „gefittet“ werden. Während Crystal Ball,
47 Vgl. Mootz, C.: Risikoanalyse, S. 122.
163
ModelRisk und Risk Solver die Anpassung von Wertprobendaten oder der daraus er-
zeugten Dichte- und Summenkurvendaten erlauben, bietet @Risk zudem die Möglich-
keit, bereits in Dichte- bzw. Summenkurvendaten komprimierte Datensample anzupas-
sen. Die einzelnen Wertprobedaten müssen hierfür nicht bekannt sein. Für Dichte- und
Summenkurvendaten findet nur die Statistik des mittleren quadratischen Fehlers Ver-
wendung. Hier handelt es sich um die gleiche Größe, die durch @Risk während des An-
passungsvorgangs zum Zweck der Parameterfestlegung minimiert wurde (Verfahren der
kleinsten Quadrate). Durch die Statistik wird der mittlere quadratische Fehler zwischen
Eingabe und Anpassungskurve dargestellt48. Crystal Ball hält eine Funktion zur Eingabe
einzelner, bereits bekannter Parameter einer „vermuteten“ Verteilung bereit. Diese kön-
nen im Rahmen des „Fittings“ zusätzlich berücksichtigt werden. Neben einem Vor-
schlag für den „best fit“ können die einzelnen, nach Anpassungsgüte aufgereihten Ver-
teilungen bei allen Programmen über Vergleichsdiagramme (VD) optisch begutachtet
werden. Bei @Risk, ModelRisk und Risk Solver wird die visuelle Beurteilung außerdem
durch PP- und QQ-Diagramme ermöglicht. Risk Solver bietet zusätzlich ein CDF-
Diagramm (CDF-D) an. Jedoch lässt sich der Abstand zwischen der wirklichen und der
vermuteten Verteilung auf der Ordinate nicht manuell normieren, sodass bei einer Ge-
genüberstellung der verschiedenen Visualierungsmöglichkeiten leicht der falsche Ein-
druck entsteht, dass hier keine perfekte Übereinstimmung vorliegt. Abb. 8 zeigt bspw.
anhand des Vergleichsdiagramms und des PP-Diagramms eine nahezu perfekte Über-
einstimmung, während dasselbe Beispiel aufgrund der fehlenden Normierbarkeit im
Rahmen des CDF-D dies nicht vermuten lässt.
Zudem werden bei allen Tools entsprechende statistische Kennzahlen ausgegeben, die
die Güte der Anpassung widerspiegeln. Um so geringer dieser Wert ausfällt, desto bes-
ser ist die Anpassung (vgl. Abb. 10).
Alle Programme erlauben nicht nur das Testen unsicherer Inputfaktoren hinsichtlich
ihrer Verteilungsform, sondern bieten dieselbe Funktion auch für simulierte
Outputgrößen (z.B. Cashflows einer Periode) an. Dies ist bspw. dann wichtig, wenn die
Cashflows des bestehenden Unternehmensverbundes mit der Cashflowverteilung des
neuen Unternehmens über Geschäftsbereichskorrelationen mit dem Varianz-Kovarianz-
48 Vgl. Palisade: @Risk Benutzerhandbuch, S. 208.
164
Ansatz getestet werden sollen (vgl. Kapitel 6.2.2). Voraussetzung ist hierbei u.a., dass
die Cashflows der einzelnen Perioden bzw. Unternehmen so weit wie möglich normal-
verteilt sein müssen49.
Abb. 10: Chi-Quadrat Anpassungstest der Eingabedaten mit „Qualitätswert“-Anzeige (links oben,@Risk)
Um die genannten Probleme der klassischen Anpassungstests zu beheben, hält die Sta-
tistik eine weitere Methode bereit. Die Güte der Anpassung kann auch mit sog. Informa-
tionskriterien getestet werden. Gängige Methoden sind hierbei u.a. die Informationskri-
terien (information criteria, IC) nach Akaike50, Hannan-Quinn51 und Schwartz52. Durch
bestimmte Formeln, die sich nur geringfügig voneinander unterscheiden, kann dabei ein
Informationskriterienwert berechnet werden. Wie bereits bei den klassischen Anpas-
sungstests gilt auch hier: Je geringer der Wert, desto besser der Fit. Bei den Verfahren
werden in der jeweiligen Formel drei Informationen verarbeitet: Die Anzahl der Be-
49 Vgl. Kunz, H.: Finanz-Betrieb 2009, S. 173-174.50 Vgl. Akaike, H.: IEEE Transaction on Automatic Control 1974, S. 716-723.51 Vgl. Hannan, E. J./Quinn, B. G.: Journal of the Royal Statistical Society 1979, S. 190-195.52 Vgl. Schwarz, G.: Annals of Statistics 1978, S. 461-464.
165
obachtungen (z.B. tägliche Rohstoffpreise), die Anzahl der zu schätzenden Parameter
(z.B. bei einer Normalverteilung Mü und Sigma, also zwei) sowie der maximierte Wert
der Maximum-Likelihood-Methode. Der Vorteil der Informationskriterien liegt darin,
dass diese Anpassungstests sowohl auf Rohdatensample (Werteprobedaten) als auch für
aufbereitete Daten (bspw. in Histogrammform) angewendet werden können. Zudem
wird durch die Einbindung der Anzahl der Parameter die Flexibilität unterschiedlicher
Verteilungen hinsichtlich ihrer Form berücksichtigt. Trotz dieser Vorteile greift derzeit
lediglich ModelRisk auf Informationskriterien zurück (vgl. Abb. 11). Auch das „fitting“
von Copulas wird durch diese Kriterien unterstützt (vgl. Kapitel 4.2.1).
@Risk Crystal Ball ModelRisk Risk Solver
Verteilungsanpas-sung für stetige unddiskrete Input- undOutputdaten?
ja ja ja ja
besondereZusatzfeatures?
Verteilungsanpas-sung auch für direkterfasste Summen-und Dichtedaten
Berücksichtigungbereits bekannterParameter beim
„fitting“ parametri-scher Verteilungen
„fitting“ vonCopulas möglich nein
Auswertung derAnpassungsergeb-nisse durchTeststatistiken?
AD-T,KS-T,CQ-T,
mittlererquadratischer Fehler
AD-T,KS-T,CQ-T
durch 3Informations-
kriterien(AIC, BIC, HIC)
AD-T,KS-T,CQ-T
Auswertung derAnpassungsergeb-nisse durchDiagramme?
VDQQ-D,PP-D
VDVD,
QQ-D,PP-D
VDQQ-D,PP-D,
CDF-D
Abb. 11: Verteilungsanpassungen und Anpassungstests
4 Definieren von Abhängigkeiten
4.1 Einfache Zusammenhänge
Bei der Vorbereitung der stochastischen Bewertung muss auch darauf geachtet werden,
ob und ggf. wie die einzelnen, mit Unsicherheit behafteten Inputgrößen des zugrunde
gelegten DCF-Modells zusammenhängen53. Das Bewertungsmodell ist daher auf vor-
53 Vgl. Berkau, C./Arnsfeld, T./Frey, A.: Controlling Berater 2006, S. 81.
166
handene Abhängigkeiten zu untersuchen, da sich die im Zielunternehmen identifizierten
Risiken kompensieren, gar nicht beeinflussen oder sogar gegenseitig verstärken kön-
nen54. Die Schwierigkeit liegt hierbei insbesondere darin, dass sich die identifizierten
Chancen bzw. Risiken nicht skalar zu einem Gesamtrisiko addieren lassen. Dies würde
die Annahme beinhalten, dass sämtliche Risiken gleichzeitig eintreten55. Es bedarf
vielmehr einer Untersuchung der jeweiligen Einzelrisiken hinsichtlich möglicher Korre-
lationen zwischen den einzelnen Inputvariablen, die letztlich auf die Zahlungsströme
der jeweiligen Planperioden und somit auch auf den Unternehmenswert einwirken.
Die einzelnen Variablen des Inputmoduls können untereinander verknüpft sein (Interva-
riablen- oder Kreuzkorrelation)56. Die Festlegung solcher Korrelationen hat im Bewer-
tungsmodell dafür Sorge zu tragen, dass keine unrealistischen Kombinationen in einem
Simulationsdurchlauf vorkommen. So ist bspw. eine steigende Produktions- oder Ab-
satzmenge regelmäßig auch mit steigenden Umsatzkosten, wie Materialaufwand oder
variablen Personalkosten, verbunden. Ein Simulationslauf, der per Zufallsgenerator ei-
nen Zahlungsstrom abbilden würde, welcher steigende Umsatzerlöse und zugleich sin-
kende Umsatzkosten enthält, würde zu falschen Bewertungsergebnissen führen. Von
Kreuzkorrelationen spricht man andererseits dann, wenn Korrelationen zwischen zwei
unterschiedlichen Risikoparametern über mehrere Perioden hinweg betrachtet werden.
Typischerweise trifft dies dann zu, wenn Preisweitergaben von Input- und
Outputvariablen nur zeitversetzt möglich oder gewollt sind57.
Stochastische Abhängigkeiten können auch zwischen den Ausprägungen einer einzel-
nen Inputvariablen im Zeitablauf vorliegen (serielle oder Autokorrelation)58. Dabei
hängt der per Zufallsgenerator ermittelte Wert einer Periode des Bewertungsmodells
mehr oder weniger stark vom Wert der Vorperioden ab59. So werden Absatzpreise in
zwei Jahren bspw. auch vom Absatzpreis im kommenden Jahr beeinflusst.
54 Vgl. Bleuel, H. H.: Controlling 2006, S. 372-373.55 Vgl. Kremers, M.: Risikoübernahme, S. 248.56 Vgl. Rode, D. C./Fischbeck, P. S./Dean, S. R.: Journal of Structured & Project Finance 3/2001, S. 38.57 Vgl. Kleijnen, J. P. C./van Groenendaal, W. J. H.: Simulation, S. 78.58 Vgl. Gleißner, W.: Grundlagen, S. 158.59 Vgl. Werthschulte, H.: Kreditrisikomessung, S. 105.
167
Quantifiziert werden können solche Zusammenhänge mit dem dimensionslosen Korre-
lationskoeffizienten nach Bravais/Pearson. Dabei handelt es sich um ein lineares Zu-
sammenhangsmaß zwischen zwei jeweils betrachteten Größen des entwickelten Bewer-
tungsmodells, das aus einer Normierung der Kovarianz hervorgeht, genauer gesagt,
durch eine Division der Kovarianz durch das Produkt der Standardabweichungen. Der
Korrelationskoeffizient zweier Zufallsvariablen quantifiziert die Stärke ihrer Abhängig-
keit und liegt stets im Intervall [-1,1]60. Bei einer Korrelation von 1 (-1) sind beide In-
putvariablen perfekt positiv (perfekt negativ) linear abhängig, bei einer Korrelation von
Null besteht kein linearer Zusammenhang61.
Abb. 12: Definieren von Rangkorrelationen bei Crystal Ball
Der Korrelationskoeffizient nach Bravais/Pearson ist immer nur in Bezug auf eine line-
are Abhängigkeit messbarer Werte zu interpretieren. Er reagiert des Weiteren stark auf
Ausreißer in den Beobachtungen und kann im Rahmen der Unternehmensbewertung
leicht zu Fehlern führen, da im Regelfall nur sehr wenige Daten für die Bewertung vor-
liegen62.
60 Vgl. Eckey, H.-F./Kosfeld, R./Dreger, C.: Statistik, S. 154-155.61 Vgl. Kunz, H.: Finanz-Betrieb 2009, S. 174.62 Vgl. Laas, T.: Konzerne, S. 227.
168
Die Anwendung des Rangkorrelationskoeffizienten nach Spearman (Maß für den mono-
tonen Zusammenhang) setzt verbundene Einzelbeobachtungen mindestens ordinal ska-
lierter Merkmale voraus, deren Werte separat in eine Rangfolge gebracht werden müs-
sen63. Die Berücksichtigung von Rangkorrelationen kann im Simulationsprogramm über
die Cholesky-Zerlegung in Verbindung mit der Iman-Conover-Methode umgesetzt wer-
den64. Für Variablen, die - wie bei dem Datenmaterial, das der Bewertung zugrunde
liegt, durchaus üblich - stark von der Normalverteilung abweichen, eignet sich dieser
Rangkorrelationskoeffizient besonders gut65. Im Gegensatz zum obigen Koeffizienten
werden ausschließlich die Ranginformationen und nicht die tatsächlichen Ausprägungen
der einzelnen Beobachtungen der interessierenden Inputvariablen betrachtet. Ausreißer
können so eliminiert werden66.
Mit Ausnahme von ModelRisk greifen alle Programme auf den Korrelationskoeffizien-
ten nach Spearman zurück. Im Rahmen der Modellierung von Zusammenhängen ist mit
den einzelnen Programmen sowohl die Berücksichtigung von Auto- als auch Intervari-
ablenkorrelationen möglich.
Darüber hinaus sollte das Programm über eine Korrelationsmatrixfunktion verfügen, um
mehrere Korrelationen zwischen den Inputvariablen auf einfache Weise im DCF-
Modell erfassen zu können. Das Tool muss dabei überprüfen können, ob die vom An-
wender erfassten Korrelationen positiv semidefinit sind67. Wurde bspw. im DCF-Modell
der Rohölpreis (Inputvariable A) mit einer hohen positiven Korrelation zum Dieselpreis
(Inputvariable B) definiert und ist der Dieselpreis wiederum mit einer hohen positiven
Korrelation zum Kerosinpreis (Inputvariable C) festgelegt, so können Rohölpreis (A)
und Kerosinpreis (C) nicht in einer stark negativen Beziehung zueinander stehen. Alle
der vier getesteten Programme verfügen über ein derartiges Tool. Bei ModelRisk kommt
dieses Feature jedoch nicht im Rahmen klassischer Abhängigkeitsdefinitionen, sondern
in Zusammenhang mit Copulas zum Einsatz.
63 Vgl. Gleißner, W./Wolfrum, M.: Finanz-Betrieb 2008, S. 607.64 Vgl. Dannenberg, H.: Controller Magazin 6/2009, S. 63-70.65 Vgl. Charnes, J.: Crystal Ball, S. 64.66 Vgl. Werthschulte, H.: Kreditrisikomessung, S. 105.67 Vgl. Vose, D.: Risk Analysis, S. 365.
169
4.2 Komplexere Zusammenhänge
4.2.1 Copulas
Die sog. Copulas sind im Rahmen der Unternehmensbewertung kaum verbreitet. Viel-
mehr finden diese in finanzwirtschaftlichen Anwendungen oder im Risikomanagement
großer Industriekonzerne Anwendung. Hierbei sind die sog. elliptischen von den archi-
medischen Copulas abzugrenzen68.
Eine Copula ist eine Funktion, die den Zusammenhang zwischen den Verteilungs-
funktionen von zwei (bivariat) oder mehreren (multivariat) Zufallsvariablen (bspw. ei-
nes DCF-Modells) und ihrer gemeinsamen Wahrscheinlichkeitsverteilung berücksichti-
gen kann69. Auf dieser Basis lassen sich stochastische Abhängigkeiten durch eine koor-
dinierte Zufallszahlenziehung deutlich komplexer modellieren als mit den oben be-
schriebenen Korrelationskoeffizienten. Während die Erstellung von Korrelationsmatri-
zen im Anschluss an die Verteilungsdefinition einen separaten Schritt im Due Diligence
Prozess darstellt, wird die spezifische Verteilungsform der stochastisierten Variablen
bei der Erstellung komplexerer Abhängigkeiten mithilfe von Copulas explizit berück-
sichtigt (verteilungsbasierte Abhängigkeitsdefinition). Mit der höheren Modellierungs-
flexibilität steigt jedoch zeitgleich der Schulungsbedarf der Verantwortlichen im Due
Diligence Team. Hier ist nicht nur die Art der einzusetzenden Copula zu bestimmen,
sondern bei einigen Varianten auch die dafür notwendigen Parameter (z.B. der Alpha-
Wert der Clayton-Copula, der Korrelationskoeffizient bei der (multivariaten) Normal-
Copula)70. Wurde in der Due Diligence bspw. ermittelt, dass bei einem niedrigen Perso-
nalaufwand diese Aufwandsposition zu der zweiten betrachteten Aufwandsposition
(z.B. Materialaufwand) stark positiv korreliert ist, jedoch bei hohem Personalaufwand
dieser zum Materialaufwand nur eine schwach positive Korrelation besitzt, bietet sich
zur Modellierung eine bivariate Clayton-Copula mit Richtung 1 an (vgl. Abb. 13)71.
Eine Clayton-Copula kann insgesamt vier Richtungen annehmen, zwei positiv korrelier-
68 Vgl. ausführlich hierzu Cherubini, U./Luciano, E./Vecchiato, W.: Copula Methods.69 Vgl. Savu, C.: Copulas, S. 11-13.70 Vgl. Beck, A./Lesko, M./Schlottmann, F./Wimmer, K.: Zeitschrift für das gesamte Kreditwesen
2006, S. 29-33.71 Vgl. Vose, D.: Risk Analysis, S. 369.
170
te und zwei negativ korrelierte. Innerhalb der beiden Varianten wird wiederum unter-
schieden, ob die Streuung primär im negativen oder im positiven Bereich liegt. Die
Stärke der Streuung im rechten oberen Rand wird durch die Parameterschätzung des
Alpha-Werts festgelegt. Möchte man mehrere Inputvariablen verknüpfen, kann das
Konzept entsprechend mittels multivariater Copulas erweitert werden, was gleichzeitig
aber die Modellierungskomplexität weiter erhöht.
Abb. 13: Modellierung einer bivariaten Clayton-Copula mit ModelRisk
Denkbar ist der Einsatz von Copulas bspw. dann, wenn die Verteilungen der zu korre-
lierenden Inputgrößen stark unterschiedliche Formen und asymmetrische Profile auf-
weisen. Zur Wahl der richtigen Copula für das Bewertungsmodell bedarf es entweder
einer großen (Branchen-)Erfahrung des Bewertenden oder hinreichend vieler objektiver
Datenpunkte (z.B. bei Rohstoffpreisrisiken)72. Ferner ist zu berücksichtigen, dass es
sich mit den im Rahmen der Unternehmensbewertung meist wenigen verfügbaren Da-
tenpunkten schwieriger gestaltet, eine entsprechende Copula anzupassen als einen hin-
reichend validen Korrelationskoeffizienten zu berechnen73. Von den hier untersuchten
72 Vgl. Böve, R./Hubensack, C./Pfingsten, A.: Zeitschrift für das gesamte Kreditwesen 2006, S. 671-673.
73 Vgl. Nguyen, R./Molinari, T.: German Risk and Insurance Review 5/2009, S. 50.
171
Programmen greift lediglich ModelRisk auf die anspruchsvolleren Copulafunktionen
zurück. Mit Features zur Ableitung von Copulas aus empirischen Daten sowie zur
Durchführung von Anpassungstests verfügt das Due Diligence Team, das über entspre-
chende Experten verfügt, zumindest über eine gute Anwendungsunterstützung.
4.2.2 SLURPs
Mit der Modellierung von SIPs (vgl. Kapitel 3.2.3) und sog. SLURPs können durch eine
implizite Berücksichtigung von Korrelationen ebenfalls Abhängigkeiten abgebildet
werden74. Durch die sequentielle Vereinigung der Datensample der SIPs der jeweiligen
Bewertungsperiode entsteht eine sog. SLURP (Stochastic Library Unit with
Relationships Preserved). Mit mehreren SLURPs können auch Abhängigkeiten zwi-
schen einzelnen Unternehmenseinheiten berücksichtigt werden. Dies erweist sich dann
als nützlich, wenn mehrere Geschäftsbereiche gleichzeitig bewertet und zu einem Ge-
samtwert zusammengeführt werden sollen. Des Weiteren lässt sich die Zeit als dritte
Dimension - in Form der einzelnen Perioden der Planungsphase - mit SIPs und
SLURPS im DCF-Bewertungsmodell abbilden75.
Das Konzept ist wiederum eng mit dem Probability Management verzahnt (vgl. Abb. 6).
Beispiel: Im Rahmen einer Bewertung soll für ein exportorientiertes Unternehmen zur
Einschätzung des zukünftigen Umsatzwachstums die Entwicklung der Weltwirtschaft
(anhand des globalen MSCI-Indizes) und zur Abschätzung des Materialaufwands der
zukünftige Ölpreis als unsichere Variable herangezogen werden. Beide Unsicherheits-
faktoren wurden durch das zentrale Due Diligence Team durch entsprechende Vertei-
lungen abgebildet, die bspw. auf historisch beobachteten Paaren von Kursentwicklun-
gen bzw. Wachstumsquoten aufbauen (historische Simulation) oder für die Zukunft
unter Einsatz ökonometrischer Modelle abgeschätzt werden (Monte-Carlo-
Simulation)76. Aus diesen beiden Verteilungen werden nun 10.000 Datensample er-
zeugt, und zwar jeweils für die Umsatzentwicklung (in Abhängigkeit der Entwicklung
des MSCI-Indizes, SIP 1) und für den Materialaufwand (in Abhängigkeit des Ölpreises,
SIP 2). Setzt man diese Datensample in das DCF-Modell ein, ergeben sich 10.000 Er-
74 Vgl. Frontline Systems: Risk Solver User Guide, S. 210.75 Vgl. Savage, S./Scholtes, S./Zweidler, D.: OR/MS Today 2006, S. 64-66.76 Vgl. Savage, S.: Harvard Business Review 11/2002, S. 20-21.
172
folgs- bzw. Zahlungsstromgrößen (SLURP 1). Ein zweiter Geschäftsbereich ist annah-
megemäß ebenfalls stark vom Ölpreis abhängig, weshalb das gleiche erzeugte Daten-
sample (SIP 2) herangezogen und in der gleichen Reihenfolge sequentiell abgearbeitet
wird. Hinsichtlich der Wachstumsquote wird nun jedoch die Wertentwicklung des S&P
500 betrachtet, da der Exportschwerpunkt in den Vereinigten Staaten liegt. Hier muss
durch das zentrale Due Diligence Team ein neues Datensample erzeugt werden (SIP 3).
Aus den so erzeugten Samples entstehen auch für den zweiten Geschäftsbereich 10.000
Cashflows (SLURP 2). Fügt man die beiden Cashflows zusammen, ergibt sich der ko-
härente Gesamtcashflow über den ganzen Konzern hinweg gesehen.
Eine entsprechende SLURP-Funktion ist mit allen Programmen möglich, wobei nur
Risk Solver (durch die Funktion PsiSLURP) und Crystal Ball (im Benutzerhandbuch)
dies ausdrücklich erwähnen. Im Grunde handelt es sich hierbei jedoch um das gängig
praktizierte Sampling von Werteprobedaten. Eine Abarbeitung im DCF-Modell ist da-
bei mit allen Programmen sowohl sequentiell als auch zufällig möglich.
@Risk Crystal Ball ModelRisk Risk Solver
Art desKorrelations-koeffizienten?
RangkorrelationSpearman
RangkorrelationSpearman
keineRangkorrelation
RangkorrelationSpearman
serielle u.Intervariablen-Korrelation?
ja ja Berücksichtigungdurch Copulas ja
Verfügbarkeit undKonsistenzprüfungeiner Korrelations-matrix?
ja jaja
(z.B. im Rahmen derNormal-Copula nötig)
ja
komplexe,nicht-lineareZusammenhänge?
keine Copulas,SLURP-Funktiondirekt unterstützt
keine Copulas,SLURP-Funktiondirekt unterstützt
Copulas,SLURP-Funktiondirekt unterstützt
keine Copulas,SLURP-Funktiondirekt unterstützt
Abb. 14: Qualität der Softwaretools hinsichtlich der Berücksichtigung von Abhängigkeiten
Bevor eine Monte-Carlo-Simulation ausgeführt werden kann, sind nach der Definition
der Verteilungen der wichtigsten Wert- und Risikotreiber und deren etwaigen Korrela-
tionen noch die Outputgrößen des Discounted Cashflow (DCF) Modells zu definieren.
Dies geschieht wiederum über entsprechende Features in der Symbolleiste des Pro-
gramms oder durch Direkteingabe in der gewünschten Outputzelle. Sind alle gewünsch-
173
ten Outputzellen (z.B. Cashflows der Periode, Unternehmenswert, etc.) festgelegt, be-
ginnt die eigentliche Simulation des geschlossenen Planungsmodells.
5 Durchführen der Simulation
5.1 Sampling-Methoden und Anzahl der Simulationsläufe
Im Rahmen der Simulation wird aus den entsprechenden Verteilungen der Inputgrößen
unter Beachtung etwaiger Korrelationen per Zufallszahlengenerator wiederholt ein
Stichprobenwert gezogen und anschließend in die Funktion des gesuchten Zielwerts
- also in das mehrperiodige Bewertungsmodell - eingesetzt77. Somit ergibt sich pro Si-
mulationslauf für jede vorher festgelegte Outputgröße ein bestimmter Ergebnisstichpro-
benwert im Sinne eines Endwerts (z.B. Cashflow, Unternehmenswert)78.
Berechnung des Free Cashflow
Umsatzerlöse
- Materialaufwand
- Personalaufwand
- sonstige betriebliche Aufwendungen
+ Zinserträge
- KSt zzgl. SolZKSt-Vorteil wegen fiktiver, reinerEigenfinanzierung
- GewStGewSt-Vorteil wegen fiktiver, reinerEigenfinanzierung
+/- Zuführung/ InanspruchnahmeRückstellungen
-/+ Zu-/ Abnahme aktivischer RAP
+/- Zu-/ Abnahme passivischer RAP
- Investitionen
-/+ Zunahme/ Abnahme des Working Capital
= Free Cashflow
Einzelrisiken des Unternehmens mit Einfluss auf den Free Cashflow
Markteintritteines weiterenWettbewerbers
Rohstoffpreis -schwankungen
Rückruf undReparatur fehler-hafter Produkte……
(-) XUE
(-) XMA
(-) XPA
(+/-) XUE (-) XUE
(+/-) XMA
(-) XRSt
Verteilung der simuliertenFree Cashflows
MODELLINPUT
MODELLOUTPUT
Korrelationenzwischen einzelnenunsicheren Input-faktoren?
Erläuterungen:PrimärwirkungSekundärwirkungpositive Wirkung / negative Wirkung(+)/(-)
Berechnung des Free Cashflow
Umsatzerlöse
- Materialaufwand
- Personalaufwand
- sonstige betriebliche Aufwendungen
+ Zinserträge
- KSt zzgl. SolZKSt-Vorteil wegen fiktiver, reinerEigenfinanzierung
- GewStGewSt-Vorteil wegen fiktiver, reinerEigenfinanzierung
+/- Zuführung/ InanspruchnahmeRückstellungen
-/+ Zu-/ Abnahme aktivischer RAP
+/- Zu-/ Abnahme passivischer RAP
- Investitionen
-/+ Zunahme/ Abnahme des Working Capital
= Free Cashflow
Einzelrisiken des Unternehmens mit Einfluss auf den Free Cashflow
Markteintritteines weiterenWettbewerbers
Rohstoffpreis -schwankungen
Rückruf undReparatur fehler-hafter Produkte……
Berechnung des Free Cashflow
Umsatzerlöse
- Materialaufwand
- Personalaufwand
- sonstige betriebliche Aufwendungen
+ Zinserträge
- KSt zzgl. SolZKSt-Vorteil wegen fiktiver, reinerEigenfinanzierung
- GewStGewSt-Vorteil wegen fiktiver, reinerEigenfinanzierung
+/- Zuführung/ InanspruchnahmeRückstellungen
-/+ Zu-/ Abnahme aktivischer RAP
+/- Zu-/ Abnahme passivischer RAP
- Investitionen
-/+ Zunahme/ Abnahme des Working Capital
= Free Cashflow
Einzelrisiken des Unternehmens mit Einfluss auf den Free Cashflow
Markteintritteines weiterenWettbewerbers
Rohstoffpreis -schwankungen
Rückruf undReparatur fehler-hafter Produkte
Berechnung des Free Cashflow
Umsatzerlöse
- Materialaufwand
- Personalaufwand
- sonstige betriebliche Aufwendungen
+ Zinserträge
- KSt zzgl. SolZKSt-Vorteil wegen fiktiver, reinerEigenfinanzierung
- GewStGewSt-Vorteil wegen fiktiver, reinerEigenfinanzierung
+/- Zuführung/ InanspruchnahmeRückstellungen
-/+ Zu-/ Abnahme aktivischer RAP
+/- Zu-/ Abnahme passivischer RAP
- Investitionen
-/+ Zunahme/ Abnahme des Working Capital
= Free Cashflow
Einzelrisiken des Unternehmens mit Einfluss auf den Free Cashflow
Markteintritteines weiterenWettbewerbers
Rohstoffpreis -schwankungen
Rückruf undReparatur fehler-hafter Produkte……
(-) XUE
(-) XMA
(-) XPA
(+/-) XUE (-) XUE
(+/-) XMA
(-) XRSt
Verteilung der simuliertenFree Cashflows
MODELLINPUT
MODELLOUTPUT
Korrelationenzwischen einzelnenunsicheren Input-faktoren?
Erläuterungen:PrimärwirkungSekundärwirkungpositive Wirkung / negative Wirkung(+)/(-)
Abb. 15: Prozess der Monte-Carlo-Simulation
77 Vgl. Schlösser, R.: Unternehmensbewertung, S. 232.78 Vgl. Meyer, B. H.: Unternehmensbewertung, S. 61.
174
Die Zufallszahlenziehung und damit die Errechnung des Stichprobenwerts aus der je-
weiligen Verteilung ist abhängig von der eingesetzten Sampling-Methode. So stellt die
sog. Latin-Hypercube-Methode gut sicher, dass Zufallszahlen aus allen Verteilungsab-
schnitten, also insbesondere auch aus den Tails einer Verteilung, gezogen werden kön-
nen. Dadurch wird ermöglicht, dass ein akzeptabler Standardfehler eher erreicht wird
als beim klassischen Monte-Carlo-Sampling (vgl. Kap. 5.2)79. Das Monte-Carlo-
Sampling legt hingegen besonderen Wert darauf, dass die Zufallszahlen soweit wie
möglich statistisch unabhängig voneinander erzeugt werden80. Durch das Sobol-
Numbers-Verfahren werden im Wesentlichen die Vorteile des Monte-Carlo-Samplings
und der Latin-Hypercube-Methode miteinander verbunden81.
Während @Risk und Crystal Ball über die Verfahren Monte-Carlo und Latin-
Hypercube verfügen, bietet Risk Solver optional auch das Sobol-Numbers-Verfahren an.
Die Art der Sampling-Methode spielt bei den üblichen Unternehmensbewertungen mit
tendenziell wenig verzerrten Verteilungen - anders als bei klassischen finanzwirtschaft-
lichen Anwendungen dieser Tools - allerdings keine größere Rolle, sodass alle Anbieter
durchweg als positiv beurteilt werden können. Die Leistungsfähigkeit der Softwaretools
im Rahmen der Simulationsdurchführung trägt dazu bei, stabile Endwertverteilungen
der festgelegten Outputgrößen, also bspw. der periodischen Cashflows bzw. des daraus
zu errechnenden Unternehmenswerts, zu erhalten82. Im Regelfall reichen bei einfachen
Bewertungsmodellen zwischen 10.000 und 100.000 Simulationsläufe (Trials) aus. The-
oretisch könnten mit allen hier untersuchten Programmen mehrere hunderttausend Si-
mulationsläufe durchgeführt werden, wobei die Anzahl lediglich von der Speicherkapa-
zität des jeweilig eingesetzten Rechners beschränkt wird.
5.2 Konvergenzüberwachungsfunktion
Um unnötige Kapazitätsüberlastungen zu vermeiden, bieten gute Simulationsprogram-
me optional die Möglichkeit, Simulationsvorgänge dann abzubrechen, wenn ein ge-
wünschtes Vertrauensniveau des Anwenders hinsichtlich der festgelegten Outputgröße
79 Vgl. Robert, C./Casella, G.: Monte Carlo, S. 137.80 Vgl. Charnes, J.: Crystal Ball, S. 235-242.81 Vgl. Jäckel, P.: Monte Carlo, S. 80-88.82 Vgl. Ruppert, D.: Finance, S. 36-37.
175
(z.B. Unternehmenswert) erreicht ist. Die Stabilität jeder Zielgröße bzw. der daraus er-
mittelten Lage- und Streuungsparameter (z.B. Erwartungswert) kann mit einer sog.
Konvergenzüberwachungsfunktion auf das gewünschte Niveau normiert werden.
Ein typisches Maß dieser Konvergenzüberwachung ist der Mittlere Standardfehler, kurz
MSF83. Der MSF gibt die Wahrscheinlichkeit in % bzw. den Betrag an, mit welcher der
unter Verwendung der gezogenen Stichproben errechnete Wert von dem im Simulati-
onsmodell ausgewiesenen Wert (z.B. erwarteter Free Cashflow einer Periode) maximal
abweicht84. Je niedriger der MSF bei einer im Rahmen der Simulation zu errechnenden
Standardabweichung und einem vorher festgelegten Konfidenzniveau ausfallen soll,
desto mehr Simulationsläufe werden erforderlich. Zugleich steigt die Genauigkeit des
jeweils errechneten Werts. Entsprechende Präzisionen können für verschiedene Lage-
oder Streuungsparameter (z.B. für das arithmetische Mittel, den Median und die Stan-
dardabweichung) ermittelt werden.
Risk Solver kann eine entsprechende Konvergenzüberwachung für das arithmetische
Mittel und die Standardabweichung zumindest indirekt über die Funktion PsiCITrials
vornehmen. Diese berechnet die Anzahl der notwendigen Simulationsläufe, um eine
hinreichend stabile Verteilung der Outputgröße zu erhalten. Bei einer erneuten Simula-
tion kann die Durchlaufzahl entsprechend reduziert werden. Bei @Risk und Crystal Ball
ist die Konvergenzüberwachung durch Voreinstellungen auch auf direktem Wege fest-
zulegen.
5.3 Simulationsgeschwindigkeit und Fehlerüberwachung
Lange Zeit war die Monte-Carlo-Simulation für Bewertungs- und Wertanalysezwecke
aufgrund einer zu geringen Rechenleistung nicht anwendbar, da nicht genügend Simula-
tionsläufe innerhalb eines annehmbaren Zeitraums ausgeführt werden konnten. Mittler-
weile ist die Simulationsgeschwindigkeit - außerhalb komplexer finanzwirtschaftlicher
Anwendungen - nur noch ein untergeordnetes Beurteilungskriterium85. Dies gilt insbe-
sondere für geschlossene Planungsmodelle im Rahmen der stochastischen Unterneh-
83 Vgl. Ruppert, D.: Finance, S. 49-50.84 Vgl. Grob, H. L./Mrzyk, A.: Controlling 1998, S. 127.85 Vgl. Sugiyama, S.: Foresight 9/2008, S. 37.
176
mensbewertung, bei denen aus Kosten-Nutzen-Aspekten ohnehin nur die wesentlichen
in der Due Diligence aufgedeckten Wert- und Risikotreiber simuliert werden sollten.
Alle hier getesteten Tools ermöglichten im Rahmen des konstruierten Planungsmodells
eine schnelle Simulationsausführung und unterschieden sich in der Simulationsdauer
kaum. Aufgrund der auf einer besonderen Technologie basierenden Geschwindigkeit
können bei Risk Solver optional auch interaktive Simulationen durchgeführt werden86.
Bei Änderung einer Inputvariablen des Bewertungsmodells erfolgt eine sofortige An-
passung aller Graphiken, Statistiken und Sensitivitäten, ohne dass die Simulation neu
gestartet werden muss.
Alle vier Programme wurden des Weiteren hinsichtlich ihrer Fehlerüberwachungsfunk-
tionen überprüft. Hierzu wurde im Planungsmodell eine entsprechende Formel hinter-
legt, um bei hinreichend vielen Simulationsläufen einen „künstlichen“ Fehler zu produ-
zieren (Division einer Zahl durch eine zufällig erzeugte Zahl, die auch den Wert „Null“
annehmen kann). Bei einem fehlerhaften Simulationslauf wird, je nach Voreinstellung,
die Simulation entweder zu Ende geführt oder angehalten und der verursachte Fehler
angezeigt. Crystal Ball kann die Fehler nicht zurückverfolgen87. Bei den anderen Anbie-
tern sind die generierten Fehler bei optionaler Einstellung nachvollziehbar. Abb. 16
zeigt die Programmeigenschaften hinsichtlich der Durchführung der Simulation.
@Risk Crystal Ball ModelRisk Risk Solver
optionaleSampling-Methoden?
Monte-Carlo,Latin-Hypercube
Monte-Carlo,Latin-Hypercube Monte-Carlo
Monte-Carlo,Latin-Hypercube,Sobol-Numbers
hinreichend großeAnzahl anSimulationsläufen?
ja ja ja ja
Konvergenzüber-wachung perVoreinstellung?
ja ja nein indirekt
Simulations-geschwindigkeit?
sehr schnell, bei einfacheren Planungsmodellen keine nennenswerten Unterschiede(bei komplexen Modellen ist Risk Solver vorteilhaft)
Fehler-überwachung?
Fehler wirdangezeigt
keineZurückverfolgung
möglich
Fehler wirdangezeigt
Fehler wirdangezeigt
Abb. 16: Eigenschaften bei Durchführung der Simulation
86 Vgl. Frontline Systems: Risk Solver User Guide, S. 15.87 Vgl. Oracle: Crystal Ball User Guide, S. 77.
177
6 Auswerten und Analyse der Simulationsergebnisse
6.1 Graphische Darstellung der Outputgrößen
Nach Festlegung der Outputgrößen und Durchführung der Simulation können abschlie-
ßend die interessierenden Größen graphisch und statistisch aufbereitet und analysiert
werden. Es handelt sich insofern um eine Risikoanalyse des potentiellen Kaufobjekts.
Die Ergebnisse der Simulation in Form von Ergebnisverteilungen der periodenspezifi-
schen Cashflows bzw. der errechneten Unternehmenswerte sind bei allen getesteten
Tools über entsprechende Histogramme und kumulative Verteilungsfunktionen
visualisierbar.
Abb. 17: Histogramm und kumulative Verteilungsfunktion (Risk Solver)
Hierbei werden die interessierenden Zielgrößenausprägungen mit deren dazugehörigen
relativen und absoluten Eintrittswahrscheinlichkeiten dargestellt88. Mit dem Tendenz-
übersichtsdiagramm verfügen zudem alle Programme gleichermaßen über die Möglich-
keit, Outputverteilungen auch über mehrere Perioden, bspw. über die Länge der Detail-
planungsphase, darzustellen. Zudem bieten @Risk, ModelRisk und Risk Solver über das
Box-Whisker-Diagramm89 eine gute alternative Visualisierungsform, die ebenfalls die
zentralen Ergebnisgrößen und deren Schwankungsbreiten im Zeitablauf aufzeigt (vgl.
Abb. 18). Die in den Graphiken vorgenommenen Einstellungen können bei @Risk und
ModelRisk für spätere Bewertungsvorgänge benutzerdefiniert gespeichert und mit ande-
ren Anwendern - bspw. zur Wahrung der Corporate Identity - ausgetauscht werden. Bei
88 Vgl. Werthschulte, H.: Kreditrisikomessung, S. 63.89 Vgl. Law, A.: Simulation, S. 320-324.
178
Crystal Ball sind die entsprechenden Einstellungen nur lokal vorzunehmen, während bei
Risk Solver Voreinstellungen für spätere Bewertungsvorgänge generell nicht speicher-
bar sind.
Abb. 18: Tendenzübersichtsdiagramm (Crystal Ball) und Box-Whisker-Diagramm (ModelRisk)
Die individuelle Darstellung und Anpassung von Outputverteilungen erfolgt bei Crystal
Ball und Risk Solver über separate Einzelfenster. Risk Solver verfügt dabei mit der Mög-
lichkeit zur Miniaturansicht über ein praktisches Feature.
@Risk Crystal Ball ModelRisk Risk Solver
DarstellungsformeinzelnerOutputverteilungen?
Histogramm,kumulativeVerteilung
Histogramm,kumulativeVerteilung
Histogramm,kumulativeVerteilung
Histogramm,kumulativeVerteilung
Zeitreihen-darstellung?
Box-Whisker-Diagramm,
Tendenzübersicht
nurTendenzübersicht
Box-Whisker-Diagramm,
Tendenzübersicht
Box-Whisker-Diagramm,
Tendenzübersicht
individuelleAnpassung derOutputverteilungen?
gut anpassbar,Einstellungen
speicherbar undaustauschbar
gut anpassbar,Einstellungen
nur lokalspeicherbar
gut anpassbar,Einstellungen
speicherbar undaustauschbar
gut anpassbar,Einstellungen nicht
speicherbar
Qualität derErgebnis-übersichten?
übersichtlicheFenster
keineGesamtübersicht,
keineMiniaturansicht
übersichtlicheFenster
keineGesamtübersicht,Miniaturansicht
möglich
Abb. 19: Möglichkeiten zur Darstellung und graphischen Bearbeitung von Outputgrößen
179
Durch das „Schwebenlassen“ des Mauszeigers über die interessierende Zelle des
Spreadsheets kann eine verkleinerte Schnellansicht der jeweiligen Input- bzw.
Outputgröße aufgerufen werden. Die Bearbeitung erfolgt durch Doppelklick der Minia-
turansicht. Über entsprechende Reiter können anschließend verschiedene Ergebnisdar-
stellungen (Graphen, Sensitivitätsanalysen, etc.) angewählt werden. In Crystal Ball sind
diese Befehle über die Symbolleiste und über Drop-Down-Menüs auszuführen. @Risk
und ModelRisk verfügen über sog. Ergebnisübersichtsfenster, in welchen die Resultate
aller definierten Outputs in aggregierter Form betrachtet werden können. Auf Grundlage
einer listenartigen, verkleinerten Diagrammübersicht können einzelne interessierende
Größen aufgerufen und individuell bearbeitet werden.
6.2 Statistische Darstellung der Outputgrößen
6.2.1 Anforderungen
Neben der graphischen Aufbereitung sind durch die eingesetzten Softwareprogramme
möglichst auch alle statistischen Informationen zu liefern, die für einen potentiellen
Erwerber zur wirtschaftlichen Beurteilung des Akquisitionsobjekts erforderlich sind90.
Die Berechnung statistischer Momente dient dazu, die Lage und Form der jeweils gene-
rierten Verteilung zu beschreiben und somit Aufschluss über die Wahrscheinlichkeit des
Erreichens bestimmter Ergebnisziele (z.B. Cashflows, Unternehmenswerte) zu geben.
Gängige Simulationsprogramme sollten daher über die wichtigsten Lage- und
Streuungsparameter verfügen91. Das arithmetische Mittel dient bspw. der Bestimmung
des Erwartungswerts der simulierten Verteilungen. Der Median hingegen bezeichnet die
Grenze zwischen zwei Hälften einer Verteilung und halbiert somit die simulierten Häu-
figkeiten, also bspw. die generierten Unternehmenswerte. Der Modus (Modalwert) wie-
derum ist der am häufigsten vorkommende Wert in einer Verteilung, d.h. der Wert mit
der größten Eintrittswahrscheinlichkeit. Schließlich repräsentieren das Minimum und
Maximum die niedrigste bzw. die höchste Ausprägung einer simulierten Verteilung92.
Als typisches zweiseitiges Risikomaß fungiert die lageunabhängige Standardabwei-
90 Vgl. Schumann, C. P.: Valuation Strategies Magazine 9/10/2006, S. 12.91 Vgl. Cottin, C./Döhler, S.: Risikoanalyse, S. 105-111.92 Vgl. Fahrmeir, L./Künstler, R./Pigeot, I./Tutz, G.: Statistik, S. 53-75.
180
chung. Diese kann dazu genutzt werden, um gewisse Risiko-Rendite-Kennzahlen aus
dem simulierten Risikoprofil der Cashflow- bzw. Erfolgsverteilung herzuleiten93. Zwei-
seitige Risikomaße berücksichtigen Abweichungen vom Plan- bzw. Erwartungswert in
beide Richtungen (Chancen und Gefahren)94. Neuere Forschungsarbeiten beschäftigen
sich zunehmend mit Themengebieten, wie Monte-Carlo-Simulationen zur Lösung von
Fragestellungen in der Unternehmensbewertung und Geschäftsbereichsteuerung beitra-
gen können. Die zu ermittelnden statistischen Größen spielen hierbei eine wichtige Rol-
le.
6.2.2 Notwendigkeit zur Berechnung und Darstellung statistischer Kennzahlen
Durch die Monte-Carlo-Simulation können bspw. Abhängigkeiten zwischen den Cash-
flows unterschiedlicher Geschäftsbereiche zur optimalen Kapitalallokation berücksich-
tigt werden. Diese Überlegungen lassen sich auch auf Akquisitionsvorgänge95 übertra-
gen. Das akquierende Unternehmen und das unabhängig bleibende Zielunternehmen
bzw. deren Geschäftsbereiche werden dabei als Konzernverbund betrachtet. Durch aus-
gleichende Portfolioeffekte in den simulierten risikobasierten Zahlungsströmen (Diver-
sifikation) lassen sich das Erfolgs- sowie Liquiditätsrisiko und damit die Geschäftsbe-
reich spezifischen Eigenkapitalkosten senken96.
Die entsprechenden Risiken werden hierbei über den Cashflow-at-Risk (CFaR) bzw.
den Eigenkapitalbedarf (EKB) zum Ausdruck gebracht. Der CFaR bzw. EKB beschreibt
die Abweichung des Cashflows bzw. der Ergebnisgröße vom erwarteten Wert der Plan-
Kapitalflussrechnung bzw. der Plan-GuV, die mit einer bestimmten, im Rahmen eines
Konfidenzintervalls angegebenen Wahrscheinlichkeit p nicht unterschritten wird. Dabei
ist die Differenz zwischen dem erwarteten Wert und dem Wert für das entsprechende
93 Vgl. von Weizsäcker, R. K./Krempel, K.: Finanz-Betrieb 2004, S. 812; Pfaff, D./Kühn, J.: Zeitschriftfür betriebswirtschaftliche Forschung 2005, S. 199. Zu nennen wäre hier bspw. die Sharpe-Ratio,welche die Streuung des EBITs oder einer ähnlichen Erfolgsgröße berücksichtigt.
94 Vgl. Gleißner, W.: Grundlagen, S. 111.95 Vgl. Meichelbeck, A.: Konzern, S. 591-614.96 Vgl. Kunz, H.: Finanz-Betrieb 2009, S. 174; Scholz, J.: Akquisitionen, S. 173. Ob diese Risikodiver-
sifikation auf Unternehmensebene auch für die Anteilseigner (und somit für die Kapitalkosten desGesamtkonzerns) relevant sind, hängt u.a. von deren Diversifikationsgrad und der Höhe möglicherInsolvenzkosten ab. Das isoliert für das Unternehmen gemessene Risiko dürfte in vielen Fällen vongroßer Bedeutung sein.
181
Quantil (α = 1 – p) zu bilden97. Die entsprechenden Quantile sollten durch das verwen-
dete Simulationsprogramm individuell festlegbar sein, da diese auch die Grundlage für
den zu berechnenden CFaR (bzw. Eigenkapitalbedarf) bilden. Da die Summe aller
Cashflow-at-Risk bzw. Eigenkapitalbedarfe der Geschäftsbereiche durch Portfolio-
effekte geringer ist als ihr addierter Betrag, müssen die risikoreduzierenden Effekte ent-
sprechend berechnet werden98. Die risikomindernde Addition der unterschiedlichen
CFaR- bzw. EKB-Größen wird unter Berücksichtigung der Geschäftsbereichskorre-
lationen über die Linearkombinationsregel des Varianz-Kovarianz-Ansatzes ermöglicht.
n
jji
GBj
GBi
n
i
GBgesamt CFaRCFaRCFaR
1,
%60,%60,
1
%60,
%60,GBgesamtCFaR = diversifizierter CFaR aller Geschäftsbereiche bei einem Konfidenzniveau von 60%
ji , = Korrelationskoeffizient zwischen den Geschäftsbereichen i und j
Die Berechnung stellt hinreichende Anforderungen an die Struktur der Cashflow- bzw.
EKB-Verteilungen der einzelnen bestehenden bzw. neuen Geschäftsbereiche99. Die Si-
mulationsergebnisse müssen dabei zumindest annähernd einer Normalverteilung folgen,
was statistisch durch die beiden Momente Wölbung und Schiefe überprüft werden
kann100. So muss die Schiefe bspw. einen Wert von oder nahe null und die Wölbung
(Kurtosis) einen Wert von oder nahe drei aufweisen. Des Weiteren geben die Schiefe
und die Wölbung wichtige Einblicke in das Risikoprofil des zu bewertenden Unterneh-
mens. Eine rechtsschiefe Verteilung bedeutet bspw., dass außerordentlich gute Ergeb-
nisse (Cashflows, Erfolgsgrößen, Unternehmenswerte etc.) wahrscheinlicher sind als
außerordentlich schlechte101.
Im Rahmen der vorherrschenden deterministischen Wertmodelle wird der Erwartungs-
wert des Cashflows mit einem entsprechenden, das Risiko berücksichtigenden Kapitali-
sierungszins diskontiert. Dabei sind die Kapitalkosten auf Basis des häufig kritisierten
Capital Asset Pricing Models (CAPM) kapitalmarktbezogen zu ermitteln. Dies erfolgt
97 Vgl. Million, C./Zerweck, M./Zucknick, M./Maak, F.: Corporate Finance biz 2010, S. 174.98 Vgl. Hölscher, R./Kalhöfer, C./Bonn, R.: Finanz-Betrieb 2005, S. 502.99 Vgl. Kremers, M.: Risikoübernahme, S. 149.100 Vgl. Cottin, C./Döhler, F.: Risikoanalyse, S. 112-114.101 Vgl. Moser, U./Schieszl, S.: Finanz-Betrieb 2001, S. 533.
182
durch Ergänzung des risikolosen Zinses um eine entsprechende Risikoprämie, die sich
an den historischen Renditen des Kapitalmarkts orientiert. Die Risikoprämie ergibt sich
aus der Multiplikation der Marktrisikoprämie (Risikokostensatz) - die durchschnittliche
Rendite des Gesamtmarkts an risikobehafteten Investitionen rEK vermindert um den
risikolosen Zins rf - mit dem Betafaktor102. Dieser charakterisiert ein Risikomaß, wel-
ches das systematische Risiko in Form von Kursschwankungen des Unternehmens im
Verhältnis zum Risiko des Gesamtmarkts angibt und als Risikomenge interpretiert wer-
den kann. Die Ermittlung des Betafaktors erfolgt anhand vergangenheitsbezogener Da-
ten, indem historische Kursrenditen des betreffenden Unternehmens den entsprechenden
Renditen des Gesamtmarkts gegenübergestellt werden. Diese Vorgehensweise ist je-
doch in vielerlei Hinsicht kritisch zu betrachten. Bereits die Überlegungen von Fama
und French (Drei-Faktoren-Modell von 1993103) zur empirischen Bestimmung von Ri-
sikoprämien verdeutlichen, dass neben dem allgemeinen Marktrisiko weitere Risikofak-
toren betrachtet werden müssen und das Unternehmensrisiko nicht ausschließlich auf
Basis historischer Kursschwankungen abgeleitet werden darf104.
Simulationsbasierte Bewertungsansätze diskutieren daher die Frage, inwiefern die
mehrwertigen, durch die Monte-Carlo-Simulation erzeugten Cashflow-Darstellungen
letztlich in einen risikoadäquaten deterministischen Unternehmenswert für das Akquisi-
tionsobjekt überführt werden können. In den letzten Jahren häufen sich Publikationen,
die die Schwächen der gängigen Praxis der Kapitalkostenermittlung kritisieren und für
den Einsatz der Monte-Carlo-Simulation zur stochastischen Ableitung von risikoadä-
quaten Eigenkapitalkostensätzen plädieren105. Auch hier spielen die statistischen Grö-
ßen eine wichtige Rolle, die entsprechend durch die Add-In basierten Programme zu
berechnen sind.
Wie aus nachfolgender Formel zu entnehmen ist, stellt in diesem Modell nicht der Beta-
faktor, sondern der risikobehaftete Cashflow die Risikomenge dar, während der Risiko-
102 Vgl. Pratt, S./Grabowski, R.: Cost of Capital, S. 91.103 Vgl. Fama, E./French, K.: Journal of Financial Economics 1993, S. 3-56.104 Vgl. Loderer, C./Jörg, P./Plicher, K./Roth, L./Zgraggen, P.: Bewertung, S. 380-384.105 Vgl. Gleißner, W./Kamaras, E./Wolfrum, M.: Beteiligungen, S. 129-193; Kunz, H.: Finanz-Betrieb
2009, S. 170-180.
183
kostensatz bspw. als Marktrisikoprämie106 interpretiert werden kann. Zur Ermittlung der
Risikomenge muss für das eingesetzte Risikomaß ein entsprechendes Konfidenz-
intervall (KI)107 bestimmt werden, aus dem der Umfang des Risikos abgeleitet werden
kann. Als Risikomaß dient wiederum der bereits genannte Cashflow-at-Risk als relative
Abweichung vom Erwartungswert108.
01
0)( FKBWFSÄZUV t
n
t
ZUt
)()( %fEK
xKIZU
ZUt
ZUt rrCFaRCFESÄ
0)(ZUV = Wert des Eigenkapitals des Zielunternehmens
tBWF = Barwertfaktor zur Diskontierung des Sicherheitsäquivalents mit dem risikofreien Zins
ZUtSÄ = Sicherheitsäquivalent des Zielunternehmens (ZU) der Bewertungsperiode t
)( ZUtCFE = Erwartungswert des Cashflows des ZU in Bewertungsperiode t
%xKIZUCFaR = Cashflow-at-Risk des Zielunternehmens der Periode t (Konfidenzintervall x%)
fEK rr = Marktrisikoprämie
FK0 = Wert des Fremdkapitals
Die simulierten Cashflow-Verteilungen charakterisieren die Risikostruktur des Unter-
nehmens, indem die Möglichkeit der Abweichung des tatsächlichen Ergebnisses vom
erwarteten Wert transparent gemacht wird. Diese Risikogröße gilt es mit dem Risiko-
kostensatz (= Risikopreis) in Verbindung zu bringen. Welches Intervall festzulegen ist
hängt u.a. von der Risikobereitschaft des Akquisiteurs109 ab. So wird lediglich diejenige
Ergebnisabweichung integriert, die mit der angegebenen Wahrscheinlichkeit innerhalb
der jeweiligen Planperiode unter normalen Marktbedingungen erwartet wird110. Die
106 Zu Marktrisikoprämien in der Unternehmensbewertung vgl. Kruschwitz, L./Löffler, A./Essler, W.:Unternehmensbewertung, S. 114-127.
107 Vgl. Homburg, C./Stephan, J.: Zeitschrift für Controlling und Management 2004, S. 314.108 Vgl. Wiedemann, A./Hager, P.: Messung, S. 217-233.109 Vgl. Kunz, H.: Finanz-Betrieb 2009, S. 176.110 Vgl. Wolf, K.: Controlling 2003, S. 70.
Risikomenge Risikokostensatz
Risikoprämie
184
Multiplikation der Risikomenge mit dem Risikopreis stellt schließlich die Risikoprämie
der betrachteten Periode dar111. Für eine Risikoberücksichtigung im Zähler des determi-
nistischen DCF-Modells muss dann die mehrwertige und per Monte-Carlo-Simulation
erzeugte Darstellung der risikobehafteten Cashflows in entsprechende einwertige Er-
gebnisse transformiert werden. Um eine doppelte Erfassung des Risikos zu vermeiden,
sind die Cashflows mit dem risikolosen Zinssatz zu diskontieren112. Durch die perioden-
spezifische Abdiskontierung der um die Risikoprämie bereinigten Erwartungswerte mit
dem risikofreien Zins kann schließlich ein Unternehmenswert ermittelt werden, welcher
der Risikoeinstellung des Akquisiteurs entspricht.
6.2.3 Leistungsfähigkeit der Programme
Hinsichtlich der Bereitstellung statistischer Kennzahlen in Zusammenhang mit den
Outputgrößen ergeben sich bei den vier Programmen keine großen Unterschiede. Die
beschriebenen Lage- und Streuungsparameter sowie Momente (Wölbung, Schiefe) kön-
nen mit allen vorliegenden Programmen optional generiert werden. Gleiches gilt für die
individuelle Festlegung der auf den jeweiligen Risikoeinstellungen basierenden Quanti-
le zur Ableitung des Konfidenzintervalls und damit des Cashflow-at-Risk. Besondere
Vorteile weisen hier wiederum @Risk und ModelRisk auf, da die statistischen Ergebnis-
se besonders übersichtlich dargestellt werden. Risk Solver unterstützt des Weiteren eine
direkte Berechnung einseitiger Risikoparameter mit klassisch finanzwirtschaftlichen
Fragestellungen (bspw. Value-at-Risk, Conditional Value-at-Risk). Darüber hinaus las-
sen sich viele statistische Auswertungen (z.B. sämtliche simulierte Unternehmenswerte,
Quantile in 1%-Schritten etc.) einfach in Excel extrahieren und für weitere Anwendun-
gen (z.B. für SIPs und SLURPs) nutzen. Sieht man von der Darstellung und Möglich-
keit des Exports der Ergebnisse in andere Applikationen ab (vgl. Kap. 6.4), weisen die
untersuchten Programme daher keine signifikaten Unterschiede auf. Alle interessieren-
den Werte können einfach ermittelt werden. Zusätzlich werden mit Hilfe von Graphiken
und Statistiken auch stochastische Sensitivitäten und Szenarien interpretierbar. Im Ge-
gensatz zur Darstellung der Outputgrößen weisen die Programme hier zum Teil sehr
unterschiedliche Leistungsmerkmale auf.
111 Vgl. Gleißner, W./Kamaras, E./Wolfrum, M.: Beteiligungen, S. 153.112 Vgl. Jödicke, D.: Finanz-Betrieb 2007, S. 167.
185
6.3 Stochastische Sensitivitäts- und Szenarioanalysen
Durch stochastische Sensitivitätsanalysen kann ex post gezeigt werden, welche Inputva-
riable in welcher Stärke und in welche Richtung auf das Ergebnis, also bspw. auf einen
simulierten Zahlungsstrom bzw. einen bestimmten Unternehmenswert (z.B. im 90%-
Quantil), gewirkt hat113. Im Gegensatz zur ex ante basierten deterministischen Sensitivi-
tätsanalyse (vgl. Kapitel 3.2) werden hierbei auch etwaige Korrelationen zwischen den
Inputvariablen im Planungsmodell implizit berücksichtigt. Entsprechend ihrem Pendant
liefert die stochastische Sensitivitätsanalyse Informationen über kritische Inputgrößen
der periodenspezifischen Cashflows des DCF-Modells und somit über wertrelevante
Faktoren. Die im Rahmen der Simulation nachgelagerte Sensitivitätsanalyse kann einer-
seits Inputfaktoren mit essentieller Bedeutung für den Unternehmenswert transparent
machen, welche dann gegebenenfalls in der Due Diligence einer erneuten Überprüfung
bedürfen114. Andererseits werden - entsprechend dem Vorgehen bei der deterministi-
schen Variante - dem Adressaten der Bewertung Koeffizienten und/oder Korrelationen,
die das Ausmaß dieser Auswirkung identifizieren, angezeigt. Dies offenbart die Stell-
größen, auf die sich die Entscheidungsfindung im Rahmen des Kaufprozesses konzent-
rieren sollte115.
Koeffizienten aus Regressionsmodellen sind dabei nicht immer zur Analyse der Sensiti-
vität von Outputergebnissen (z.B. Unternehmenswert, Cashflow) auf die Variation von
Inputfaktoren (z.B. Absatzmenge, Absatzpreis) geeignet. Der im Rahmen der Regressi-
onsanalyse ermittelte R2-Wert sollte nicht unter 60% liegen. Dieser gibt an, inwiefern
die Beziehung zwischen der Outputgröße und dem jeweiligen Inputfaktor durch die
lineare Regression erklärt wird. Besteht keine lineare Beziehung zwischen der jeweili-
gen Inputgröße und der Ergebnisverteilung, ist die Sensitivitätsanalyse auf Basis des
Rangkorrelationskoeffizienten nach Spearman durchzuführen.
Die im Rahmen der Simulation eingesetzten Softwaretools sollten daher sowohl auf die
Rangkorrelation als auch auf die lineare Regression zurückgreifen. Bei beiden Ermitt-
lungsmethoden ergibt sich - je nach Einflussrichtung und -stärke - ein Wert zwischen -1
113 Vgl. Henking, A.: Risikoanalyse, S. 10-11.114 Vgl. Bleuel, H. H.: Controlling 2006, S. 377.115 Vgl. Reinhart, G./von Bredow, M.: Zeitschrift für wirtschaftlichen Fabrikbetrieb 2008, S. 835.
186
und +1. Für einfache additive und subtraktive Modelle ist der lineare Regressions- bzw.
Korrelationskoeffizient (Pearson-Bravais) gut geeignet. Bei komplexeren Beziehungen
zwischen den Input- und Outputvariablen liefert der Rangkorrelationskoeffizient
(Spearman) bessere Ergebnisse116.
Im Mittelpunkt stochastischer Szenarioanalysen steht hingegen die Frage, welche
Kombination von Inputvariablen für ein bestehendes simuliertes Ergebnis oder eine
Ergebnisbandbreite (= Szenario) signifikant ist117. Hierzu werden die Werte der jeweili-
gen Inputvariablen, die zu der festgelegten „Untermenge“ beigetragen haben (z.B.
„Szenario: Cashflow der Periode 1 zwischen zwei und drei Millionen € bzw. zwischen
70%-Quantil und 80%-Quantil“) verdichtet und hieraus ein Mittelwert errechnet. Sofern
dieser Mittelwert erheblich vom Mittelwert aller Simulationsläufe abweicht (z.B. +/-
halbe Standardabweichung) ist die Eingabevariable für diese „Untermenge“, d.h. für
dieses Szenario, als signifikant zu beurteilen. Somit kann dem Empfänger des Bewer-
tungsgutachtens bspw. offengelegt werden, welche Risikovariablen sich auf die Kauf-
preisspanne oder die jeweiligen Quantilswerte besonders stark auswirken.
Stochastische Sensitivitäts- und Szenarioanalysen lassen sich graphisch und statistisch
in unterschiedlicher Weise darstellen118. Tornadodiagramme (Tornadocharts) geben
bspw. anhand von Rangkorrelationen, linearen Korrelations- und/oder linearen Regres-
sionskoeffizienten wieder, in welcher Stärke und Richtung eine Inputvariable das Simu-
lationsergebnis beeinflusst. Gemäß dem errechneten Regressions- bzw. Korrelationsko-
effizienten wird eine Rangfolge der Inputfaktoren des Bewertungsmodells gebildet und
diese im Diagramm in absteigender Ordnung präsentiert. Die Darstellung der Inputfak-
toren erfolgt in Balkenform, dessen Länge und Richtung sich bspw. nach dem ermittel-
ten Koeffizienten richtet.
Spinnendiagramme (Spider Plots, vgl. Abb. 20) zeigen, ob der generierte Unterneh-
menswert bzw. Cashflow direkt proportional (linear) oder indirekt proportional (nicht-
linear) von der Inputvariablen abhängt. Gekrümmte Graphen im Chart spiegeln indirek-
te Proportionalitäten wider, gerade direkte. Die Steigungen der jeweiligen Funktions-
116 Vgl. Vose, D.: Risk Analysis, S. 83.117 Vgl. Palisade: @Risk Benutzerhandbuch, S. 144.118 Vgl. Rode, D. C./Fischbeck, P. S./Dean, S. R.: Journal of Structured & Project Finance 3/2001, S. 41.
187
kurven geben Aufschluss über das Maß der Sensitivität des Untersuchungsergebnisses
auf die Veränderung der jeweiligen Inputvariablen119. Mit dem Grad und der Richtung
der Steigung der jeweiligen Funktionskurven steigt folglich der positive bzw. negative
Einfluss der Inputvariablen auf die Outputgröße. Im Gegensatz zu Tornadocharts kön-
nen so auch ungewöhnliche Beziehungen aufgedeckt werden, bspw. wenn sich eine
Inputvariable aufgrund ihrer Verteilungsform nur an den extremen Rändern stark auf
den Unternehmenswert bzw. Cashflow auswirkt120. Die Untersuchung erfolgt auf Basis
unterschiedlicher Perzentile der Ergebnisgrößen, die auf der Abszisse abgetragen wer-
den. So werden bspw. für die unterhalb des 10%-Quantils liegenden und per Simulation
generierten Outputwerte (z.B. Cashflow einer Periode) nur diejenigen Werte des inte-
ressierenden Inputfaktors ermittelt, die in diese Outputwerte eingegangen sind. An-
schließend erfolgt die Berechnung des Mittelwerts der genierten Ergebniswerte für den
untersten Bereich (0%-Quantil bis 10%-Quantil). Fortgeführt bis zum 100%-Quantil
ergeben sich je nach Schrittanzahl entsprechende Mittelwerte, die jeweils innerhalb der
einzelnen Quantilintervalle abzutragen sind. Anschließend werden die einzelnen Punkte
zu einer Kurve verbunden. Durch die Wiederholung des Vorgangs für die interessieren-
den relevanten Inputfaktoren und die Überlagerung der erzeugten Kurven entsteht das
Spinnendiagramm.
Abb. 20: Spinnendiagramm (ModelRisk)
119 Vgl. Mun, J.: Modelling Risk, S. 147-150.120 Vgl. Vose, D.: Risk Analysis, S. 85-87.
188
Punktdiagramme (auch Streuungsdiagramme oder Scatter-Plots genannt) tragen eben-
falls dazu bei, mittels Korrelations- und/oder Regressionskoeffizienten Zusammenhänge
zwischen den Inputs untereinander (z.B. graphische Darstellung der Korrelationsgüte)
bzw. zwischen einem Input und dem Ergebnis der Simulation (Output) graphisch zu
zeigen. Hierzu werden bspw. auf zwei Achsen einerseits der jeweils gesampelte Input
(z.B. Absatzmenge) und der im gleichen Simulationslauf errechnete Output, also bspw.
der Cashflow einer Periode bzw. der Unternehmenswert, dargestellt. Je nach Anzahl an
Simulationsläufen entsteht dadurch eine mehr oder weniger dichte Punktwolke, welche
die Abhängigkeitsbeziehung entsprechend wiedergibt121. Ein Zusammenhang liegt dann
vor, wenn zwischen den Inputwerten und den Ergebniswerten eine ellipsenförmige
Punktwolke erkennbar ist. Je nach Einflussstärke können einzelne Inputvariablen aus
dem Modell entfernt oder im Rahmen der Due Diligence noch detaillierter untersucht
werden. Hinsichtlich der Ergebnispräsentation im Bewertungsprotokoll empfiehlt es
sich, unwesentliche Einflussfaktoren aus der graphischen Darstellung zu entfernen, um
die wesentlichen Risikofaktoren, die ggf. Gegenstand der späteren Kaufpreisverhand-
lung werden, explizit herauszuheben.
Alle untersuchten Programme verfügen über die Möglichkeit, stochastische Sensitivitä-
ten mittels Tornado- oder Punktdiagramm darzustellen. @Risk bietet neben der Auswer-
tung über Regressions- und Rangkorrelationskoeffizienten auch eine absolute Regressi-
on an. Die absoluten Werte auf der x-Achse des Tornadodiagramms zeigen bspw. an,
um wie viel sich der Cashflow bzw. Unternehmenswert infolge einer Standardabwei-
chungsänderung von +1 in jeder Eingabe geändert hat. Auch die Szenarioanalyse ist bei
@Risk sowohl statistisch als auch graphisch sehr gut umsetzbar. ModelRisk ermöglicht
zwar keine Regression, dafür aber optional die Abbildung der Sensitivitäten mittels ei-
nes Spinnendiagramms. Hier können für die individuell festzulegenden Tranchen u.a.
die Sensitivitäten unterschiedlicher Lage- und Streuungsparameter der Inputgrößen ana-
lysiert werden. Zwar wird bei ModelRisk das Konzept der stochastischen
Szenarioanalyse nicht direkt unterstützt, jedoch kann der Grundgedanke indirekt und
relativ gut über die Funktion „Filter“ nachgebildet werden. Zur graphischen Darstellung
sind die Visualierungsmöglichkeiten zur Sensitivitätsanalyse nutzbar. ModelRisk und
121 Vgl. Oracle: Crystal Ball User Guide, S. 25.
189
Crystal Ball liefern im Rahmen der Sensitivitätsanalyse neben der Rangkorrelation eine
Aussage darüber, welchen Beitrag eine Inputvariable zur Varianz der Outputvariablen
beisteuert. Im Rahmen des absoluten Varianzbeitrags ermöglicht Crystal Ball eine Dar-
stellung als Kreisdiagramm. Szenarioanalysen sind ebenfalls gut umsetzbar, jedoch
können die dargestellten statistischen Größen lediglich mit der Graphikoption von Excel
als Punktdiagramm aufbereitet werden. Bei Risk Solver werden stochastische Sensitivi-
tätsanalysen lediglich auf Basis der linearen Produkt-Moment-Korrelation nach Pear-
son/Bravais sowie gemäß der Rangkorrelation (Spearman) durchgeführt. Stochastische
Szenarioanalysen sind nicht möglich.
@Risk Crystal Ball ModelRisk Risk Solver
StochastischeSensitivitäts-analyse?
Regressions-koeffizient,
Rangkorrelationoder absoluteRegression
Rangkorrelationoder
absoluterVarianzbeitrag
Rangkorrelation,Varianzbeitrag,
Sensitivitäten u.a.auch von Lage- undStreuungsparameter
in mehrerenTranchen
Rangkorrelationoder Produkt-
Moment Korrelation(Pearson-Bravais)
Darstellung vonstochastischenSensitivitäts-analysen?
Tornadodiagramm,Punktdiagramm
Tornadodiagramm,Punktdiagramm,Kreisdiagramm
Tornadodiagramm,Punktdiagramm,
Spinnendiagramm
Tornadodiagramm,Punktdiagramm
StochastischeSzenarioanalysemöglich?
ja,mit Tornado- undPunktdiagramm
ja,aber keineGraphiken
(nur in Excel)
indirekt überFunktion „Filter“;alle Graphiken der
stochastischenSensitivitätsanalyse
sind nutzbar
nein
Abb. 21: Stochastische Sensitivitäts- und Szenarioanalysen
6.4 Speichermöglichkeit, Datenaufbereitung und -export
Um die graphischen und statistischen Ergebnisse mehreren Anwendern (z.B. mehreren
an der Due Diligence beteiligten Personen) zentral zugänglich zu machen, muss das
Programm das Ablegen von Simulationsergebnissen bzw. deren Ergebnisberichte in
einer Datenbibliothek bzw. externen Datei unterstützen. Des Weiteren sind auch hinrei-
chende Anforderungen an die Datenaufbereitung der erzeugten Ergebnisse sowie an
deren Übertragung in das Bewertungsgutachten zu stellen, um diese dem Adressaten der
Bewertung verständlich und übersichtlich darstellen zu können.
190
Die Speichermöglichkeit ist bspw. dann relevant, wenn die endgültige Inputvariablen-
struktur des Bewertungsmodells im Due Diligence Team noch zur Diskussion steht.
Durch verschiedene Simulationen mit unterschiedlichen Annahmen (z.B. mit und ohne
Berücksichtigung von Korrelationen, Simulation der Absatzmenge mit einer Gleich-
und alternativ mit einer PERT-Verteilung) können für verschiedene Alternativen Unter-
nehmenswert- bzw. Cashflowverteilungen generiert werden. Darüber hinaus bietet es
sich an, die Simulationen für spätere, ähnlich gelagerte Bewertungen quasi als „Wis-
sensdatenbank“ und Vergleichsgrundlage zu speichern. Ein optimales Library sollte
daher nicht nur zum Ablegen von vordefinierten Verteilungen (vgl. Kapitel 3.2.3), son-
dern auch zum Ablegen von Simulationsergebnissen und -modellen unterschiedlicher
Bewertungsprojekte genutzt werden können.
Die Programme bieten je nach Leistungsfähigkeit die optionalen Möglichkeiten, die
Ergebnisse der Simulation vor ihrem Export in das Excel-Berichtsformat direkt im
Workbook (@Risk), im dateieigenen Format (@ Risk, Crystal Ball, ModelRisk) oder in
einer Library (@Risk, ModelRisk) zu speichern. In der Library können auch mehrere
Simulationsergebnisse abgelegt, mit dem gewünschten Modell verlinkt und firmenüber-
greifend für Mitglieder des Due Diligence Teams zur Verfügung gestellt werden.
ModelRisk macht die Simulationsergebnisse auch gegenüber externen Adressaten leicht
kommunizierbar. Ähnlich dem PDF Reader können bspw. Mandanten einer M&A Ge-
sellschaft mit dem kostenfrei downloadbaren ModelRisk Results Viewer die Ergebnisse
der Simulation direkt einsehen, ohne selbst über das Add-In verfügen zu müssen. Der
Einblick in die Details des DCF-Modells bleibt dabei ausschließlich der Bewertungsge-
sellschaft vorbehalten.
Zwar verfügen weder Crystal Ball noch Risk Solver über eine derart ausgestaltete Libra-
ry, jedoch können bei Crystal Ball die Simulationsergebnisse wenigstens im dateieige-
nen Format abgespeichert und später zur Auswertung und zum Datenexport wieder ge-
öffnet werden. Risk Solver hingegen ermöglicht keine Zwischenspeicherung der Simula-
tionsergebnisse. Nichtsdestotrotz bleiben bei allen Programmen die vorgenommenen
Einstellungen (Verteilungen, Korrelationen, etc.) bei Beendigung des Programms erhal-
ten, sodass die Simulation bei einem erneuten Programmaufruf einfach wiederholt und
die entsprechenden Ergebnisse erzeugt werden können.
191
Die graphische und statistische Darstellung der Daten in einem entsprechenden Bewer-
tungsprotokoll stellt an das jeweilige Softwareprogramm die Forderung nach einem
Datenexport. Die gewonnenen und ggf. im Berichtsformat des jeweiligen Anbieters
bzw. in der Library zwischengespeicherten Ergebnisse (Outputgrößen, Sensitivitätsana-
lysen, Statistiken etc.) werden dabei in einen auf Excel basierenden Ergebnisbericht
exportiert. Der Bericht stellt quasi das Bewertungsprotokoll aller interessierenden Input-
und Outputgrößen des Spreadsheet basierten Simulationsmodells dar. Hierbei können
die jeweiligen Berichtsformate vom Anwender - in Abhängigkeit des jeweiligen Bewer-
tungsfalls und der interessierenden Größen - individuell angepasst und ggf. für mehrere
Bewertungsvorgänge im Design standardisiert werden (Corporate Identity).
Abb. 22: Ausschnitt aus dem Ergebnisbericht (@Risk)
Für die Darstellung im Bewertungsprotokoll eignen sich @Risk und ModelRisk beson-
ders gut, da alle Einstellungen firmenübergreifend standardisiert und die in Excel darzu-
stellenden Ergebnisse vor deren Generierung bzw. Extrahierung umfassend anhand von
Ergebnisübersichtsfenstern bearbeitet werden können. Auch graphische Anpassungen
(Histogramme, Diagramme zur Darstellung der Güte der Verteilungsanpassung, etc.)
sind umfassend und einfach möglich. Alle notwendigen Graphiken und Statistiken las-
sen sich zudem durch eine gute Copy & Paste Unterstützung in Excel, Word oder für
192
Präsentationen in PowerPoint überführen. Zwar ist auch bei Crystal Ball eine umfas-
sende Bearbeitung der Graphiken möglich, jedoch ist der in Excel zu extrahierende Er-
gebnisbericht nicht ganz so ausgereift wie bei den anderen beiden Anbietern. Die indi-
viduell anpassbaren Voreinstellungen (z.B. Farbe der Graphiken, Balkenbreite der His-
togramme, etc.) sind zudem nur lokal speicherbar. Risk Solver weist starke Limitationen
bei der Anpassung einiger Graphiken - insbesondere bei denen der Sensitivitätsanalyse
und bei den Graphiken zur Darstellung der Güte der Verteilungsanpassung - auf. Die
Speicherung individueller Einstellungen ist nicht möglich. Auch enthält der generierte
Ergebnisbericht keinerlei Graphiken. Zur Darstellung im Bewertungsprotokoll sind die-
se daher über die „Clipboard“ Funktion in die gewünschte Applikation (Excel, Word,
etc.) zu extrahieren, was sich insbesondere bei Planungsmodellen mit mehreren Perio-
den als relativ mühsam und zeitaufwendig erweist.
@Risk Crystal Ball ModelRisk Risk Solver
(Zwischen-)Speicherung derErgebnisse derSimulationen?
direkt im Work-book, als externe
Datei oderlokal/firmenüber-
greifend im Library
nicht im Workbook,als externe Datei;
nicht in der Library
nicht im Workbook,als externe Datei
oderlokal/firmenüber-
greifend im Library
keine (Zwischen-)Speicherung
möglich
Erstellung vonindividuellenErgebnisberichten& Übertragung vonGraphiken in andereApplikationen?
Inhalte des Ergeb-nisberichts indivi-duell festzulegen,gute Copy & Paste
Unterstützung
Inhalte des Ergeb-nisberichts indivi-duell festzulegen,gute Copy & Paste
Unterstützung
Inhalte des Ergeb-nisberichts indivi-duell festzulegen,gute Copy & Paste
Unterstützung
Ergebnisberichtstark beschränkt
(keine Graphiken),gute Copy & Paste
Unterstützung
Speicher-möglichkeit vonindividuellenVoreinstellungen?(Corporate Identity)
firmenübergreifendmöglich, damit
einheitliches Designnur lokal möglich
firmenübergreifendmöglich, damit
einheitliches Designnicht möglich
Abb. 23: Erstellung von Ergebnisberichten für Bewertungsprotokolle und Präsentationen
6.5 Limitationen der Risikoanalyse
In Bezug auf die Bewertungsadressaten erlaubt die Präsentation des Bewertungsergeb-
nisses mit den generierten Statistiken und Visualisierungen (Outputgrößen, Sensitivitä-
ten) im Vergleich zur deterministischen Unternehmensbewertung einen erweiterten
Einblick in die Risikostruktur des Akquisitionsobjekts. Dennoch weist auch die Darstel-
lung mehrwertiger Szenarien gewisse Limitationen auf.
193
Die stochastische Darstellung vermittelt leicht den trügerischen Eindruck, sämtliche
Chancen und Risiken des Zielunternehmens zu erfassen. Inwiefern die im Rahmen einer
Due Diligence ermittelten Inputverteilungen die real existierenden Risiken des Unter-
nehmens wiedergeben, vermag auch mithilfe der Monte-Carlo-Simulation nicht eindeu-
tig geklärt werden122. Vielmehr sind in die Akquisitionsentscheidung auch andere Fak-
toren - wie Integrationsrisiken und Synergiepotentiale - einzubeziehen123. Viele dieser
Risiken lassen sich allerdings nicht eindeutig quantifizieren, sodass die dargestellten
Verteilungsstrukturen der einzelnen Cashflows bzw. des Unternehmenswerts unvoll-
ständig sind. Auch ist zu bedenken, inwiefern die einzelnen Statistiken und graphischen
Auswertungen vom Mandanten überhaupt nachvollzogen werden können. Regressions-
koeffizienten oder auf bestimmte Quantilswerte aufbauende Spinnendiagramme bedür-
fen einer ausführlichen Erklärung. So hat bspw. das bei @Risk und Crystal Ball im Zu-
ge der deterministischen Sensitivitätsanalyse einsetzbare Spinnendiagramm einen völlig
anderen Aussagegehalt als das Spinnendiagramm von ModelRisk, das ausschließlich in
der stochastischen Sensitivitätsanalyse Anwendung findet und Korrelationen berück-
sichtigt. Zudem basieren viele Ergebnisse auf der Qualität der Inputfaktoren und deren
Verknüpfungen im Due Diligence Prozess („garbage in, garbage out“)124. Spreadsheet
basierte Simulationsprogramme können die Erfahrungen und Kenntnisse eines Due Di-
ligence Teams bezüglich der Chancen und Risiken lediglich verarbeiten, die realitätsge-
treue Quantifizierung können auch sie nicht übernehmen. Um grundlegende Fehler be-
reits bei der Anwendung der Softwareprogramme zu vermeiden und die Limitationen
der einzelnen Features aufzuzeigen, stellen die Anbieter Supportmaterial zur Verfü-
gung.
7 Support
Die bisherigen Ausführungen haben gezeigt, dass die Anwendung Add-In basierter Si-
mulationssoftware in der Unternehmensbewertung zumindest grundlegende statistische
Kenntnisse sowie Kenntnisse des Programms selbst voraussetzen. Screenshots, eine
122 Vgl. Pellens, B./Crasselt, N./Sellhorn, T.: Zeitschrift für betriebswirtschaftliche Forschung 2007, S.278; Obermaier, R./Schüler, A.: Finanz-Betrieb 2006, S. 28-31.
123 Vgl. Brühl, V.: M&A Review 2002, S. 314.124 Vgl. Damodaran, A.: Valuation, S. 85.
194
ausführliche Erklärung der einzelnen Funktionen durch entsprechende Hilfedateien und
Benutzerhandbücher mit umfassenden statistischen Grundlagen tragen gut dazu bei, das
Programm unter Berücksichtigung des Kosten-Nutzen-Aspektes richtig umzusetzen.
Alle Anbieter stellen bei etwaigen Problemen und anfänglichen Schwierigkeiten einen
einjährigen telefonischen Support zur Verfügung.
Hinsichtlich der literarischen Unterstützung werden das Benutzerhandbuch und die Hil-
fedateien von Palisade (@Risk) sehr nutzerfreundlich dargestellt. Das umfassende Werk
enthält ausführliche Erläuterungen zu den einzelnen Funktionen. Eine Vielzahl von
Screenshots macht darüber hinaus den Einsatz für die Bewertungspraxis gut nachvoll-
ziehbar. Palisade ist derzeit der einzige Anbieter, der - neben dem Programm - auch das
Handbuch und viele Online-Ausführungen in deutscher Sprache zur Verfügung stellt.
Auch Oracle (Crystal Ball) liefert ein ausführliches Benutzerhandbuch. Der breit ge-
fasste User Guide überzeugt durch seine ausführlichen Illustrationen, statistischen
Grundlagen und seine leicht verständlichen Tutorials. Oracle stellt zusätzlich schnell
verständliche sog. „One-Minute Spotlights“ der wichtigsten Anwendungen (z.B. Durch-
führen von Sensitivitätsanalysen, graphische Gestaltung von Verteilungen, etc.) im
PDF-Format zur Verfügung. VoseSoftware (ModelRisk) verfügt zwar über kein klassi-
sches Benutzerhandbuch, dafür aber über eine umfangreiche Hilfedatei, die auch als
PDF-File extrahiert werden kann. Illustrierte Hilfethemen leiten den Anwender sicher
durch die einzelnen Features des Programms. Des Weiteren gibt ein als PDF erhältlicher
„Quick-Start“ Leitfaden einen schnellen Überblick über die wichtigsten Programmfea-
tures. Das Benutzerhandbuch von Frontline Systems (Risk Solver) beinhaltet zu großen
Teilen die Beschreibung des nicht im Simulationspaket verfügbaren Optimierungstools
Premium Solver. Dadurch wird die gezielte Suche nach Features unnötig erschwert.
Auch sucht man im Benutzerhandbuch statistische Grundlagen vergebens. Dafür stellt
Frontline Systems auf seiner Homepage eine sehr gute und mit Screenshots illustrierte
Kurzbeschreibung der wichtigsten Anwendungen von Risk Solver bereit.
Als Ergebnis lässt sich festhalten, dass alle Programme umfassende Features zur Um-
setzung der angebotenen Funktionen bieten. Aufgrund der besonders klaren und struktu-
rierten Detailbeschreibungen und der vielen Anwendungsbeispiele sind @Risk, Crystal
Ball und ModelRisk besonders zu empfehlen.
195
8 Zusammenfassung und Fazit
Im Rahmen des Beitrags wurden die Excel basierten Simulationsprogramme @Risk,
Crystal Ball, ModelRisk und Risk Solver auf die bewertungspraxisbezogene Anwendung
in Bezug auf die Modellerstellung, die Simulationsdurchführung und die Ergebnisprä-
sentation untersucht.
Hinsichtlich der Verteilungsdefinition verfügen alle Programme über die grundlegend
notwendigen Funktionen. Für die Ausführung einer deterministischen Sensitivitätsana-
lyse leistet @Risk die beste Unterstützung. ModelRisk bietet mit seiner umfangreichen
Auswahl an Verteilungstypen die größte Modellierungsflexibilität. Auch in Bezug auf
einen bestmöglichen Support des Due Diligence Teams bei der Modellierung warten
@Risk und ModelRisk durch die Möglichkeit zum Zeichnen und Aggregieren von Ver-
teilungen mit guten Funktionen auf. Zudem sticht ModelRisk durch eine direkte Vertei-
lungszusammenführung heraus. Für eine weitgehende Verlagerung der Modellierungs-
kompetenz auf ein zentrales Due Diligence Team hält Risk Solver gute Funktionen be-
reit (SIPs, SLURPs), die nur durch die mangelnde Verfügbarkeit einer gut ausgestalte-
ten Library beeinträchtigt wird. Auch die anderen Programme leisten z.T. sehr gute
Dienste, um das Probability Management im Zuge der stochastischen Unternehmens-
bewertung betreiben zu können (Library-Funktionen für Verteilungen und/oder Simula-
tionsergebnisse).
Im Rahmen der Verteilungsanpassung und des Fittings sind insbesondere @Risk sowie
ModelRisk hervorzuheben. Risk Solver weist hier gewisse Limitationen bei der Benut-
zerfreundlichkeit und der individuellen Gestaltung der Graphiken und Statistiken auf.
Auf Basis der Rangkorrelation nach Spearman erlauben @Risk, Crystal Ball und Risk
Solver die Modellierung einfacher Abhängigkeitsbeziehungen verschiedener Modellva-
riablen, die sich insbesondere bei den ersten beiden genannten Programmen sehr gut
umsetzen lassen. Komplexere Strukturen sind bei ModelRisk sehr gut ins DCF-Modell
integrierbar (Copulas) bzw. werden bei allen Programmen direkt (Crystal Ball, Risk
Solver) oder indirekt über sog. SLURP Funktionen ermöglicht.
In Zusammenhang mit der Modellerstellung wird die Güte der Programme entscheidend
davon bestimmt, über welche Erfahrungen und Möglichkeiten die jeweiligen Anwender
verfügen. So werden Copulafunktionen häufig nur schwer abzuschätzen und den Man-
196
daten kaum zu vermitteln sein. Das Probability Management spielt insbesondere bei
großen Wirtschaftsprüfungs- und M&A-Gesellschaften ein Rolle. Hier können die Er-
kenntnisse bspw. auch im Rahmen einfacher Consultingaufträge genutzt werden. Für
kleinere Gesellschaften mit wenigen Bewertungen ist aus Kosten-Nutzen-Aspekten das
Konzept des Probability Managements hingegen weniger geeignet. Eine Aussage, wel-
ches der Programme im Zuge der Modellerstellung am besten ist, hängt deshalb immer
auch vom jeweiligen Bewertungsfall und der interessierenden Problemstellung ab.
Bei der Simulationsdurchführung erweisen sich alle Programme als voll praxistauglich.
Insbesondere @Risk und Crystal Ball sind hinsichtlich der Funktionen zur direkten
Konvergenzüberwachung lobend hervorzuheben.
@Risk zeichnet sich auch bei der Darstellung und dem Datenexport der graphischen und
statistischen Outputgrößen sowie bei der Szenario- und Sensitivitätsdarstellung im
Rahmen der Ergebnispräsentation aus. Bewertungsprotokolle sind so einfach zu stan-
dardisieren und für den jeweiligen Bewertungsfall zu individualisieren. Ähnlich gut
setzt ModelRisk den geforderten Leistungskatalog um. Zwar sind grundsätzlich auch die
Features von Crystal Ball diesbezüglich gut anwendbar, jedoch ist die Benutzerfreund-
lichkeit - insbesondere bei größeren Planungsmodellen - verbesserungswürdig. Vorein-
stellungen, wie bspw. Graphiken, können nur Arbeitsplatz basiert vorgenommen wer-
den, was die Umsetzung einer Corporate Identity in der Bewertungspraxis erschwert.
Risk Solver überzeugt bei der Simulationsdurchführung aufgrund der Fähigkeit zur in-
teraktiven Simulation. Bei der Darstellung und Umsetzung der Ergebnispräsentationen,
bspw. zur Erstellung von benutzerdefinierten Bewertungsprotokollen oder der statisti-
schen Darstellung von Ergebnisgrößen, besteht im Vergleich zu den anderen Anbietern
Nachholbedarf. Insbesondere die mangelnde Anpassung der Sensitivitätscharts und die
teilweise umständliche und unübersichtliche Darstellung einiger statistischer Größen
kann im Vergleich zu den anderen Programmen nicht überzeugen. Zudem stellt die feh-
lende Möglichkeit zur Abspeicherung von Simulationsergebnissen eine gewisse Limita-
tion dar. Vergleicht man die gewonnenen Erkenntnisse mit den Preisen der angebotenen
Tools, spiegelt sich die Leistungsfähigkeit durchaus in den jeweiligen Anschaffungs-
kosten wider.
197
@Risk Crystal Ball ModelRisk Risk SolverD
efin
iere
n un
d V
erw
alte
n vo
nV
erte
ilung
endeterministischeSensitivitätsanalyse +++ ++ - ++
Auswahl anVerteilungstypen ++ + +++ ++
Due Diligence Support &Probability Management +++ ++ +++ ++
Verteilungsanpassung u.Anpassungstests +++ ++ +++ +
Abh
ängi
g-ke
iten
einfach linear(Rangkorrelation) +++ +++ - ++
komplex, nicht-linear(Copula, SLURP) + + +++ +
Dur
chfü
hrun
gde
rSi
mul
atio
n
Sampling-Methoden undAnzahl Simulationsläufe +++ +++ +++ +++
Konvergenzüberwachung +++ +++ - -
Simulationsgeschwindigkeitund Fehlerüberwachung +++ ++ +++ +++
Aus
wer
tung
und
Ana
lyse
der S
imul
atio
nser
gebn
isse
graphische Darstellungder Outputgrößen +++ ++ ++ +
statistische Darstellungder Outputgrößen +++ ++ +++ +
stochastischeSensitivitätsanalyse +++ ++ +++ +
stochastischeSzenarioanalyse +++ ++ - -
Speichermöglichkeit,Datenaufbereitung und -export +++ ++ +++ +
Support +++ +++ +++ ++
Lizenzpreis (einmalig) 1.495 US-$ 1.215 US-$ 1.495 US-$ 995 US-$
Abb. 24: Preis-Leistungsvergleich(- nicht vorhanden oder nur indirekt möglich, + befriedigend, ++ gut, +++ sehr gut)
Für den Praxiseinsatz ist zu bedenken, dass die Outputgrößen einer Simulation nur so
gut sein können wie deren Inputgrößen. Hierzu sind hinreichende Anforderungen an den
statistischen und fachlichen Sachverstand der Beteiligten selbst zu stellen. Auch noch so
gute Simulationsprogramme sind nicht in der Lage, alle Risiken abzubilden und in der
198
Planungsrechnung zu verarbeiten. Nichtsdestotrotz bietet die softwaregestützte Monte-
Carlo-Simulation die Möglichkeit, sich im Due Diligence Prozess mit den Hauptrisiken
des Bewertungsobjekts intensiv auseinanderzusetzen. Eine frühzeitige Verdichtung der
Risiken im Planungsmodell wird somit vermieden.
Das zunehmende Interesse an der mehrwertigen Darstellung von unsicheren Sachver-
halten dürfte in den nächsten Jahren dazu führen, dass neben der industriellen und fi-
nanzwirtschaftlichen Anwendung auch in der Unternehmensbewertung vermehrt auf
simulationsbasierte Softwaretools zurückgegriffen wird. Add-In basierte Softwarelö-
sungen stellen hierfür kostengünstige Alternativen zur deterministischen Bewertung
bereit. Weitere Forschungsarbeiten zu diesem Thema könnten auch die praxisrelevante
Anwendung zusätzlich vorantreiben.
199
Literaturverzeichnis
Akaike, H.: A new look at the statistical model identification, in: IEEE Transactions onAutomatic Control 1974, S. 716-723
Baetge, J./Niemeyer, K./Kümmel, J./Schulz, R. (DCF-Verfahren): Darstellung derDiscounted-Cashflow-Verfahren (DCF-Verfahren) mit Beispiel, in: Peemöller, V.(Hrsg.): Praxishandbuch der Unternehmensbewertung, 4. Aufl., Herne 2009,S. 339-477
Beck, A./Lesko, M./Schlottmann, F./Wimmer, K.: Copulas im Risikomanagement, in:Zeitschrift für das gesamte Kreditwesen 2006, S. 29-33
Bednarczyk, T./Golla, S./Klandt, H.: Berücksichtigung von Unsicherheit bei der Busi-ness Plan-Erstellung, in: Finanz-Betrieb 2006, S. 56-62
Berkau, C./Arnsfeld, T./Frey, A.: Prozessorientiertes Risiko-Controlling für den Mittel-stand, in: Controlling Berater 2006, S. 63-98
Bleuel, H. H.: Monte-Carlo-Analysen im Risikomanagement mittels Software-Erweiterungen zu MS-Excel dargestellt am Fallbeispiel der Unternehmensplanung,in: Controlling 2006, S. 371-378
Boes, D./Graybill, F./Mood, A. (Introduction): Introduction to the Theory of Statistics,3. Aufl., New York 1974
Böve, R./Hubensack, C./Pfingsten, A.: Ansätze zur Ermittlung des Gesamtbankrisikos,in: Zeitschrift für das gesamte Kreditwesen 2006, S. 667-673
Bretzke, W. R. (Prognoseproblem): Das Prognoseproblem bei der Unternehmensbewer-tung, Düsseldorf 1975
Brühl, V.: Strategische Due Diligence - Kritischer Erfolgsfaktor im Akquisitionspro-zess, in: M&A Review 2002, S. 312-320
Brunner, E. M. (Simulationsmodell): Simulationsmodell zur Unternehmensbewertungunter spezieller Berücksichtigung des Akquisitionsentscheides im Konzern, Bern1977
Charnes, J. (Crystal Ball): Financial Modeling with Crystal Ball and Excel, New Jersey2007
200
Cherubini, U./Luciano, E./Vecchiato, W. (Copula Methods): Copula Methods in Finan-ce, Chichester 2004
Coenenberg, A. G.: Unternehmensbewertung mit Hilfe der Monte-Carlo-Simulation, in:Zeitschrift für Betriebswirtschaft 1970, S. 793-804
Cottin, C./Döhler, S. (Risikoanalyse): Risikoanalyse. Modellierung, Beurteilung undManagement von Risiken mit Praxisbeispielen, Wiesbaden 2009
Damodaran, A. (Valuation): The Dark Side of Valuation. Valuing Young, Distressed,and Complex Business, 2. Aufl., New Jersey 2010
Dannenberg, H.: Berücksichtigung von Abhängigkeiten im Risikomanagement.Nutzung von Microsoft Excel, in: Controller Magazin 6/2009, S. 63-70
Davidson, R./MacKinnon, J. (Econometric): Econometric Theory and Methods, NewYork 2004
Eckey, H.-F./Kosfeld, R./Dreger, C. (Statistik): Statistik - Grundlagen, Methoden, Bei-spiele, 3. Aufl., Wiesbaden 2002
Fahrmeir, L./Künstler, R./Pigeot, I./Tutz, G. (Statistik): Statistik, 5. Aufl., Heidelberg2004
Fama, E./French, K.: Common risk factors in the returns on stocks and bonds, in: Jour-nal of Financial Economics 1993, S. 3-56
Frey, H. C./Nießen, G. (Monte Carlo): Monte Carlo Simulation - Quantitative Risiko-analyse für die Versicherungsindustrie, München 2001
Frontline Systems (Risk Solver User Guide): Risk Solver Platform User Guide, Version9.5, Incline Village 2009
Gleißner, W.: Investitionsrechnung: Risikogerechte Beurteilung von Projekten durchden Einsatz von Simulationsverfahren, in: Controlling Berater 2007, S. 549-568
Gleißner, W. (Grundlagen): Grundlagen des Risikomanagements im Unternehmen,München 2008
Gleißner, W./Kamaras, E./Wolfrum, M. (Beteiligungen): Simulationsbasierte Bewer-tung von Akquisitionszielen und Beteiligungen, in: Gleißner, W./Schaller, A.(Hrsg.): Private Equity, Weinheim 2008, S. 129-193
201
Gleißner, W./Wolfrum, M.: Eigenkapitalkosten und die Bewertung nicht börsennotierterUnternehmen: Relevanz von Diversifikationsgrad und Risikomaß, in: Finanz-Betrieb 2008, S. 602-614
Grob, H. L./Mrzyk, A.: Risiko-Chancen-Analyse in der Investitionsrechnung - Integra-tion von VOFI und Crystal Ball, in: Controlling 1998, S. 120-129
Hannan, E. J./Quinn, B. G.: The determination of the order of an autoregression, in:Journal of the Royal Statistical Society 1979, S. 190-195
Henking, A. (Risikoanalyse): Risikoanalyse unter Berücksichtigung stochastischer Ab-hängigkeiten, München 1998
Henselmann, K./Barth, T. (Empirie): Unternehmensbewertung in Deutschland. Empiriezur Bewertungspraxis, Norderstedt 2009
Henselmann, K./Klein, M.: Monte-Carlo-Simulation in der Due Diligence, in: M&AReview 2010, S. 358-366
Hertz, D. B.: Risk Analysis in Capital Investment, in: Harvard Business Review 1/1964,S. 95-106
Hölscher, R./Kalhöfer, C./Bonn, R.: Die Bewertung operationeller Risiken in Kreditin-stituten, in: Finanz-Betrieb 2005, S. 490-504
Homburg, C./Stephan, J.: Kennzahlenbasiertes Risikocontrolling in Industrie- und Han-delsunternehmen, in: Zeitschrift für Controlling und Management 2004, S. 313-325
Jäckel, P. (Monte Carlo): Monte Carlo Methods in Finance, Chichester 2002
Jödicke, D.: Risikosimulation in der Unternehmensbewertung, in: Finanz-Betrieb 2007,S. 166-171
Kegel, K. P. (Risikoanalyse): Risikoanalyse von Investitionen - Ein Modell für die Pra-xis, Darmstadt 1991
Kleijnen, J. P. C./van Groenendaal, W. J. H. (Simulation): Simulation: A StatisticalPerspective, Chichester 1988
Klein, M. (Due Diligence): Monte-Carlo Simulation und Due Diligence. Ein methodi-scher Ansatz zur computergestützten Aggregierung von Wahrscheinlichkeitsvertei-lungen aus Expertenbefragungen, Working Papers in Accounting Valuation Audi-ting, Nr. 2010-5, Friedrich-Alexander-Universität Erlangen-Nürnberg
202
Klein, R./Scholl, A. (Planung): Planung und Entscheidung, Wiesbaden 2004
Kotiah, T./Wallace, N.: Another look at the PERT assumptions, in: ManagementScience 1973, S. 44-49
Krebs, P./Müller, N./Reinhardt, S./Schellmann, H./von Bredow, M./Reinhart, G.: Ganz-heitliche Risikobewertung für produzierende Unternehmen, in: Zeitschrift für wirt-schaftlichen Fabrikbetrieb 2009, S. 174-181
Kremers, M. (Risikoübernahme): Risikoübernahme in Industrieunternehmen, Sternen-fels 2002
Kruschwitz, L./Löffler, A./Essler, W. (Unternehmensbewertung): Unternehmensbewer-tung für die Praxis, Stuttgart 2009
Kunz, H.: Geschäftsbereichssteuerung auf der Basis des VaR, in: Finanz-Betrieb 2009,S. 170-180
Laas, T. (Konzerne): Steuerung internationaler Konzerne, Frankfurt am Main 2004
Law, A. (Simulation): Simulation Modeling and Analysis, 4. Aufl., New York 2007
Liebl, F. (Simulation): Simulation, 2. Aufl., München 1995
Loderer, C./Jörg, P./Plicher, K./Roth, L./Zgraggen, P. (Bewertung): Handbuch der Be-wertung, 3. Aufl., Zürich 2005
Meichelbeck, A. (Konzern): Unternehmensbewertung im Konzern, in: Peemöller, V.(Hrsg.): Praxishandbuch der Bewertung, 4. Aufl., Herne 2009, S. 591-614
Metropolis, N./Ulam, S.: The Monte Carlo Method, in: Journal of the American Statis-tical Association 1949, S. 335-341
Meyer, B. H. (Unternehmensbewertung): Stochastische Unternehmensbewertung - DerWertbeitrag von Realoptionen, Wiesbaden 2006
Million, C./Zerweck, M./Zucknick, M./Maak, F.: Von der eindimensionalen zur mehr-dimensionalen, risikoorientierten Liquiditätsplanung - Berücksichtigung von Risi-kogesichtspunkten und unterschiedlichen Risikoszenarien bei der Liquiditätspla-nung, in: Corporate Finance biz 2010, S. 170-174
Mootz, C. (Risikoanalyse): Risikoanalyse geschlossener Immobilienfonds. Grundlagen,Anforderungen, Praxisbeispiele, Saarbrücken 2007
203
Moser, U./Schieszl, S.: Unternehmenswertanalysen auf der Basis von Simulationsrech-nungen am Beispiel eines Biotech-Unternehmens, in: Finanz-Betrieb 2001, S. 530-541
Mun, J. (Modelling Risk): Modelling Risk, Applying Monte Carlo Simulation, RealOptions Analysis, Forecasting, and Optimization Techniques, New Jersey 2006
Nguyen, R./Molinari, T.: Quantifizierung von Abhängigkeitsstrukturen zwischen Risi-ken in Versicherungsunternehmen, in: German Risk and Insurance Review 5/2009,S. 28-52
Obermaier, R./Schüler, A.: Eine Mischung aus Unternehmensbewertung und Risikoana-lyse als Rezept für verbesserte Eigenkapitalausstattung und niedrigere Kapitalkos-ten? - Stellungnahme zum Beitrag v. Weizsäcker/Krempel, in: Finanz-Betrieb2006, S. 28-31
Oracle (Brochure): Brochure Crystal Ball, abrufbar unter:http://www.oracle.com/us/products/middleware/busint/crystalball/-crystal-ball-exec-paper-068277.pdf (05.06.2010)
Oracle (Crystal Ball User Guide): Crystal Ball User's Guide, Version 11.1.1, RedwoodCity 2009
Palisade (Risikoanalyse): @Risk - Ein neuer Standard für die Risikoanalyse, abrufbarunter: http://www.palisade.com/risk/de/ (05.06.2010)
Palisade (@Risk Benutzerhandbuch): Benutzerhandbuch für @Risk, Version 5.5, Ithaca2009
Pellens, B./Crasselt, N./Sellhorn, T.: Solvenztest zur Ausschüttungsbemessung. Berück-sichtigung unsicherer Zukunftserwartungen, in: Zeitschrift für betriebswirtschaftli-che Forschung 2007, S. 264-283
Pfaff, D./Kühn, J.: Gesamtbanksteuerung und Performancemessung: Ausgewählte Prob-leme einer kennzahlenbasierten Banksteuerung, in: Zeitschrift für betriebswirt-schaftliche Forschung 2005 (Sonderheft), S. 183-212
Pratt, S./Grabowski, R. (Cost of Capital): Cost of Capital, 3. Aufl., Hoboken 2008
Raftery, J. (Risk Analysis): Risk Analysis in Project Management, London 1994
204
Reinhart, G./von Bredow, M.: Bewertung von Kunden-Lieferanten-Beziehungen in derAutomobilindustrie, in: Zeitschrift für wirtschaftlichen Fabrikbetrieb 2008, S. 832-836
Robert, C./Casella, G. (Monte Carlo): Monte Carlo Statistical Methods, Berlin 1999
Rode, D. C./Fischbeck, P. S./Dean, S. R.: Monte Carlo Methods for Appraisal and Val-uation: A Case Study of a Nuclear Power Plant, in: Journal of Structured & ProjectFinance 3/2001, S. 38-49
Rosenkranz, F./Missler-Behr, M. (Unternehmensrisiken): Unternehmensrisiken erken-nen und managen - Einführung in die quantitative Planung, Heidelberg 2005
Ruppert, D. (Finance): Statistics and Finance, Berlin 2004
Savage, S.: The Flaw of Averages, in: Harvard Business Review 11/2002, S. 20-21
Savage, S./Brown, A.: The March Toward a Consolidated Risk Statement, in: Risk Pro-fessional 12/2009, S. 35-39
Savage, S./Scholtes, S./Zweidler, D.: Probability Management, in: OR/MS Today 2006,S. 21-28
Savage, S./Scholtes, S./Zweidler, D.: Probability Management, in: OR/MS Today 2006,S. 60-66
Savu, C. (Copulas): Modellierung multivariater Abhängigkeitsstrukturen auf Finanz-märkten mit archimedischen und hierarchischen archimedischen Copulas, Berlin2007
Savvides, S.: Risk Analysis in Investment Appraisal, in: Project Appraisal 1/1994, S. 3-18
Schlösser, R. (Unternehmensbewertung): Unternehmensbewertung mit Investitionsmo-dellen als Alternative zu den Discounted Cash Flow-Verfahren, Aachen 2006
Scholz, J. (Akquisitionen): Wert und Bewertung internationaler Akquisitionen, Wiesba-den 2000
Schulten, R.: Quo Vadis Risikomanagement?, in: Controlling 2010, S. 231-237
Schumann, C. P.: Improving Certainty in Valuation Using the Discounted Cash FlowMethod, in: Valuation Strategies Magazine 9/10/2006, S. 9-14
205
Schwartz, E. S./Moon, M.: Rational Pricing of Internet Companies, in: Financial Re-view 2001, S. 7-26
Schwarz, G.: "Estimating the dimension of a model", in: Annals of Statistics 1978,S. 461-464
Sugiyama, S.: Monte Carlo Simulation/Risk Analysis on a Spreadsheet: Review ofThree Software Packages, in: Foresight 9/2008, S. 36-41
Vanini, U.: Methoden der Risikoidentifikation, in: Das Wirtschaftsstudium 2005, S.1028-1032
von Weizsäcker, R. K./Krempel, K.: Risikoadäquate Bewertung nicht-börsennotierterUnternehmen - ein alternatives Konzept, in: Finanz-Betrieb 2004, S. 808-814
Vose, D. (Risk Analysis): Risk Analysis - A Quantitative Guide, 3. Aufl., Chichester2008
Vose Software (Compare Versions): Compare Versions, abrufbar unter:http://www.vosesoftware.com/content/compMR.pdf (05.06.2010)
Werthschulte, H. (Kreditrisikomessung): Kreditrisikomessung bei Projektfinanzierun-gen durch Risikosimulation, Wiesbaden 2005
Wiedemann, A./Hager, P. (Messung): Messung finanzieller Risiken mit Cash-Flow-at-Risk- /Earnings-at-Risk-Verfahren, in Romeike, F./Finke, R. (Hrsg.): ErfolgsfaktorRisikomanagement, Wiesbaden 2003, S. 217-233
Willeke, A.: Risikoanalyse in der Energiewirtschaft, in: Zeitschrift für betriebswirt-schaftliche Forschung 1998, S. 1146-1164
Wolf, K.: Risikoaggregation anhand der Monte-Carlo-Simulation, in: Controlling 2003,S. 565-572
Wolf, K.: Monte-Carlo-Simulation - Einsatz im Rahmen der Unternehmensplanung, in:Controlling 2009, S. 545-552
206
207
Abschnitt C
Schluss
208
209
Gliederung
1 Ergebnisse in Thesenform ....................................................................................... 211
1.1 Datengewinnung und Teamarbeit: „Monte-Carlo Simulation und Due
Diligence“ ..................................................................................................... 211
1.2 Wissensmanagement und Aggregierung mehrerer qualitativer Risiken:
„Valuation is fuzzy“ ..................................................................................... 211
1.3 Leistungsbeurteilung der Software: „Add-In basierte Softwaretools zur
stochastischen Unternehmensbewertung?“ .................................................. 212
1.4 Kritisches Fazit ............................................................................................. 214
2 Ausblick ................................................................................................................... 215
Literaturverzeichnis ...................................................................................................... 217
210
211
1 Ergebnisse in Thesenform
1.1 Datengewinnung und Teamarbeit: „Monte-Carlo Simulation
und Due Diligence“
Der erste Beitrag hatte zum Ziel, eine Methode zu entwickeln, wie Verteilungen einzel-
ner quantitativer Risikogrößen des DCF-Modells anhand einer Expertenbefragung er-
mittelt und kombiniert werden können:
Durch die modifizierte Delphi-Methode wird gewährleistet, dass die wichtigsten
Risiken von verschieden erfahrenen Experten identifiziert, mehrwertig prognosti-
ziert und einschlägig diskutiert werden können. Im Endeffekt gelingt es so, für jede
quantitative Risikogröße eine Verteilung zu generieren, welche auf den gemeinsa-
men Einschätzungen und Erfahrungen aller Experten beruht.
Um die Nachvollziehbarkeit und Reliabilität des Bewertungsprozesses zu gewähr-
leisten, sollten im Rahmen der Stochastisierung quantitativer Risiken nur einfach
nachvollziehbare Verteilungen zur Anwendung kommen. Die Moderatoren der Del-
phi-Methode müssen zusätzlich über hinreichende statistische Grundkenntnisse ver-
fügen. Zudem ist eine Simulationssoftware erforderlich, die unterschiedliche Vertei-
lungseinschätzungen mehrerer Experten aggregieren kann.
Die Aussagekraft des Simulationsmodells („garbage in, garbage out“) legt es jedoch
nahe, von einer allzu gekünstelten Verteilungsgenerierung abzusehen. Dies betrifft
insbesondere jene Risiken, die ohnehin primär qualitativer Natur sind (z.B. Ab-
schätzung kultureller Integrationsrisiken).
1.2 Wissensmanagement und Aggregierung mehrerer qualitativer
Risiken: „Valuation is fuzzy“
Will man qualitative Risiken als Verteilungen ausdrücken, so müssen diese zunächst
mittels der Fuzzy-Set Theorie zu unscharfen Risikomengen vereinigt werden. Zielset-
zung des zweiten Beitrags war es daher, einen Modellansatz zu entwickeln, welcher die
Vorteile der Fuzzy-Set Theorie mit denen der Monte-Carlo Simulation verbindet:
212
Die Modellierung und Verarbeitung qualitativer Risiken mittels der Fuzzy-Set The-
orie bietet eine attraktive Möglichkeit, unscharfe Einflussgrößen auf den Erfolg ei-
nes Unternehmens softwaregestützt zu bewerten und zu aggregieren.
Durch neue Techniken der Informationsverarbeitung kann Regel- und Faktenwissen
aus verschiedenen Datenquellen einschließlich einer vorhandenen Wissensbasis er-
hoben und zur weiteren Verarbeitung im Due Diligence Review genutzt werden. Bei
dieser Fuzzyfizierung qualitativer Risikoinformationen kann auch auf die oben be-
schriebene Methode zurückgegriffen werden.
Das so entstehende Fuzzy Business Risk Model und die daraus abgeleitete Fuzzy-
Menge (= qualitative Risikomenge) stellt z.B. einem potentiellen Käufer Wissen
über Ursachen-Wirkungs-Zusammenhänge zur Verfügung, welches dazu beiträgt,
den Beurteilungsprozess über im Zielunternehmen innewohnende qualitative Risi-
ken zu objektivieren.
Durch die Umrechnung der Fuzzy-Mengen in Wahrscheinlichkeitsdichtefunktionen
gelingt es, sowohl qualitative als auch quantitative Einflussgrößen monetär in der
stochastischen Planrechnung zu berücksichtigen. Dadurch kann für jede Periode
eine Zahlungsstromverteilung simuliert werden, welche die tatsächliche systemati-
sche und unsystematische Risikosituation eines Unternehmens widerspiegelt.
Das dadurch entstehende ganzheitliche Risikoprofil aller Planperioden liefert einen
umfassenden Einblick in die Risikostruktur eines Unternehmens und lässt sich zu-
gleich für die Ableitung periodenspezifischer Risikoprämien nutzen.
Zur Umsetzung des Konzepts ist neben einer Fuzzy-Softwarelösung ein Simu-
lationstool, z.B. in Form eines Add-In basierten Programms, erforderlich.
1.3 Leistungsbeurteilung der Software: „Add-In basierte
Softwaretools zur stochastischen Unternehmensbewertung?“
Der dritte Beitrag beschäftigte sich mit der Frage, inwieweit eine Add-In basierte Mon-
te-Carlo Simulation zur Unterstützung der stochastischen Unternehmensbewertung bei-
tragen kann (Erstellung des Simulationsmodells, Simulationsdurchführung, Risikoana-
lyse und Probability Management). Hierzu wurde die Leistungsfähigkeit der vier markt-
213
führenden Softwaretools (@Risk, ModelRisk, Crystal Ball und Risk Solver) näher unter-
sucht:
Grundsätzlich verfügen alle vier Softwarepackages über die notwendigen Features,
um geeignete DCF-Simulationsmodelle erstellen zu können. Hierzu zählt auch die
Möglichkeit zur Aggregierung von Wahrscheinlichkeitsverteilungen aus Experten-
befragungen. Besonders hervorzuheben ist dabei ModelRisk, während Crystal Ball
durch die fehlende Gewichtungsmöglichkeit von Expertenmeinungen gewisse Limi-
tationen aufzeigt. Jedoch bietet Crystal Ball ein umfassendes Feature, um unscharfe
Fuzzy-Mengen einfach in scharfe benutzerdefinierte Verteilungen überführen zu
können.
Durch ein mit der Unternehmensbewertung verbundenes Probability Management
können u.a. allgemein gültige Verteilungen (z.B. Simulation von Rohstoffpreisen)
für mehrere Bewertungsvorgänge zentral erzeugt, stetig aktualisiert und durch die
jeweiligen dezentralen Experten abgerufen werden. Fast alle untersuchten Pro-
gramme überzeugen durch die generelle Integrierbarkeit des Probability Manage-
ments in den Bewertungsprozess. Sowohl die von Experten erstellten Verteilungen
als auch Simulationsergebnisse können in einer zentralen Datenbibliothek (sog. Lib-
rary) gespeichert und dezentral abgerufen werden.
Im Rahmen der Simulationsdurchführung und Risikoanalyse sind die Tools in der
Lage, die Risikoprofile einzelner Zahlungsströme zu berechnen und graphisch sowie
statistisch darzustellen. Des Weiteren sind Risikomaßgrößen (z.B. in Form eines
Cashflow-at-Risk) – die als Grundlage für die Ermittlung einer Risikoprämie dienen
können – einfach zu ermitteln.
Vergleicht man die in der Arbeit synoptisch aufbereiteten Ergebnisse, sind – trotz
kleinerer Unterschiede – fast alle Add-Ins dazu geeignet, stochastische Unterneh-
mensbewertungen kostengünstig zu bereichern und die hier vorgestellten Konzepte
(vgl. Kap. 1.1 und 1.2) Nutzen bringend umzusetzen.
214
1.4 Kritisches Fazit
Die Kombination der Monte-Carlo Simulation mit der Fuzzy-Set Theorie bietet den
Vorteil, dass die in einem Zielobjekt liegenden quantitativen und qualitativen Risiken
erfasst und bewertet werden können. Kostengünstige Fuzzy und Add-In basierte Soft-
waretools, die einen Teil der komplexen Modellierung abnehmen, können dazu wesent-
lich beitragen.
Für den Praxiseinsatz der hier vorgestellten Konzepte ist zu bedenken, dass die
Outputgrößen einer Simulation und damit die Ergebnisse der Risikoanalyse nur so gut
sein können wie deren unscharfen bzw. mehrwertigen Inputgrößen.
Hierzu sind im Rahmen der Modellerstellung hinreichende Anforderungen an den statis-
tischen und fachlichen Sachverstand der Mitglieder des Due Diligence Reviews sowie
an die Bewertenden zu stellen. Zudem müssen die mit stochastischen und unscharfen
Wissen gefüllten Datenbanken geeignet sein. Die Auswahl, die Anzahl und die Art der
Fuzzyfizierung bzw. Stochastisierung der im Modell abzubildenden Risiken eröffnen
gewisse Ermessensspielräume, da selbst bei einer gut ausgebauten Wissensbasis und bei
einem funktionierenden Probability Management weiterhin subjektive Komponenten
notwendig sind. Jedoch kann die vorgestellte Delphi-Methode sowohl im Rahmen der
Fuzzyfizierung als auch bei der Ableitung von Verteilungen durch die Zusammenfüh-
rung verschiedener Expertenmeinungen der Pauschalitäts- und Subjektivitätsgefahr ent-
gegenwirken.
Im Unterschied zur kapitalmarktgetriebenen Risikoerfassung beim Capital Asset Pricing
Model (CAPM) bietet die softwaregestützte Monte-Carlo Simulation im Zusammen-
spiel mit der Fuzzy-Set Theorie somit die Möglichkeit, sich intensiver mit den tatsäch-
lich im Zielunternehmen liegenden Hauptrisiken auseinanderzusetzen und entsprechen-
de Risikoprofile abzuleiten. Dabei wird auch Insiderwissen verarbeitet, über das der
„normale“ Kapitalmarktteilnehmer gerade nicht verfügt. Der Investor wird damit besser
über das wahre Risiko von Cashflows und Unternehmenswerten informiert.
215
2 Ausblick
Die Anwendungsgebiete der in dieser Arbeit vorgestellten Ansätze sind nicht nur auf
die Unternehmensbewertung beschränkt. Insbesondere ist ihr Einsatz auch in Industrie-,
Dienstleistungs- und Handelsunternehmen möglich, welche die hier vorgestellten Kon-
zepte adaptieren können, um auf diese Art und Weise die qualitativen und quantitativen
Risiken zu bewerten und zu aggregieren. Ein mögliches Gebiet verstärkter zukünftiger
Forschung könnte daher die gemeinsame Integration der Fuzzy-Set Theorie, wissensba-
sierter Systeme und der Monte-Carlo Simulation in das betriebliche Risikomanagement
und das Risikocontrolling sein. Auch im Bereich der Linguistik, bspw. im Rahmen der
semiotischen Bilanzanalyse, bietet die Fuzzy-Set Theorie einen vielversprechenden For-
schungsansatz. So könnten im Rahmen der syntaktischen Analyse die Präzisionsgrade
qualitativer Informationen untersucht und für weitere empirische Auswertungen ver-
dichtet werden.1
Die praxisorientierte Akzeptanz der hier vorgestellten Konzepte hängt allerdings von
einigen limitierenden Faktoren ab. Insbesondere haben sich die Beteiligten des Akquisi-
tionsprozesses mit Bewertungsmodellen auf Basis der Fuzzy-Set Theorie und der Mon-
te-Carlo Simulation vertraut zu machen. Das hierzu erforderliche „vernetzte, unscharfe
und mehrwertige Denken“ muss sich jedoch erst noch etablieren, da ansonsten nur
schwer Zustimmung für einen solchen Bewertungsansatz zu bekommen ist. Gemäß dem
Prinzip „Bewerten heißt vergleichen“2 sind eine aussagekräftige Wissensbasis und ein
sorgfältiges Probability Management für die hier vorgestellten Konzepte unverzichtbar.
Ihr Einsatz ermöglicht es Zeit- und Betriebsvergleiche in Hinblick auf quantitative und
qualitative Informationen einfacher als bisher umzusetzen und für Entscheidungsfin-
dungen zu nutzen. Zum Aufbau stabiler Bewertungsnetze wären auch Forschungsarbei-
ten denkbar, die das hier vorgestellte Konzept mit den Grundlagen künstlicher Neurona-
ler Netze in Verbindung bringen.3
Eine wesentliche Bedeutung ist auch der XBRL Technologie beizumessen. Während die
quantitativen Angaben der Bilanzen und Erfolgsrechnungen einer Branche wichtige
1 Vgl. zur syntaktischen Analyse Henselmann, K./Klein, M./Raschdorf, F.: Prognoseeignung, S. 22-27.
2 Moxter, A.: Unternehmensbewertung, S. 79.
3 Vgl. hierzu Borgelt, C./Klawonn, F./Kruse, R./Nauck, D.: Neuro-Fuzzy-Systeme, S. 182.
216
Informationen hinsichtlich der Verteilungsparameter bestimmter Größen des Planungs-
modells liefern können, sind qualitative Informationen in der Wissensbasis zu speichern
und entsprechend aufzubereiten.4 XBRL basierte Forschungsarbeiten sollten sich daher
verstärkt mit diesem zukunftsträchtigen Themenfeld auseinandersetzen und entspre-
chende Bezüge zur Wissensbasis, zum Probability Management und zur Fuzzy-Set
Theorie herstellen.
4 Vgl. hierzu Arbeitskreis Externe Unternehmensrechnung (AKEU) der Schmalenbach-Gesellschaft
e.V.: DB 2010, S. 1472-1479.
217
Literaturverzeichnis
Arbeitskreis Externe Unternehmensrechnung (AKEU) der Schmalenbach-Gesellschaft
e.V.: Finanzkommunikation mit XBRL, in: DB 2010, S. 1472-1479
Borgelt, C./Klawonn, F./Kruse, R./Nauck, D. (Neuro-Fuzzy-Systeme): Neuro-Fuzzy-
Systeme. Von den Grundlagen künstlicher Neuronaler Netze zur Kopplung mit
Fuzzy-Systemen, 3. Aufl., Wiesbaden 2003
Henselmann, K./Klein, M./Raschdorf, F. (Prognoseeignung): Prognoseeignung des
Prognoseberichts, Working Papers in Accounting Valuation Auditing Nr. 2010-2,
Nürnberg 2010
Moxter, A. (Unternehmensbewertung): Grundsätze ordnungsmäßiger Unternehmens-
bewertung, 2. Aufl., Wiesbaden 1983
218
219
Anhang
220
221
Anhang 1
Monte-Carlo-Simulation in der Due Diligence Ein methodischer Ansatz zum computergestützten Aggregieren von
Wahrscheinlichkeitsverteilungen aus Expertenbefragungen
erschienen in: M&A Review 2010, Heft 7, S. 358-366
(mit Klaus Henselmann)
222
223
224
225
226
227
228
229
230
231
233
Anhang 2
Fuzzy-Set Theorie im Risikomanagement Eine Option zur Identifikation und Aggregation
unscharfer Risikofaktoren in der Planrechnung?
erschienen in: Controlling – Zeitschrift für erfolgsorientierte Unternehmenssteuerung
(ZfC), Heft 12, S. 710-719
234
235
1. Einbindung der Fuzzy-Set Theorie in den Risikomanagementprozess
Problematik der Integration qualitativer Risiken in die Planrechnung
Nicht unmittelbar zu quantifizierende Wert- und Risikotreiber liefern über die Finanz-
buchhaltung hinausgehende Daten hinsichtlich des Zustands, den Ressourcen und den
Potenzialen eines Unternehmens. Insbesondere bei Konzernen ohne ausreichende Di-
versifikation nehmen sie häufig die Rolle eines „leading indicators“ ein, d.h. die qualita-
tiven Chancen und Risiken laufen der finanzwirtschaftlichen Entwicklung voraus (vgl.
Helbling, 2009, S. 715). Die Schwierigkeit bei der Zuordnung qualitativer Risiken zur
finanziellen Planrechnung besteht darin, dass viele dieser „weichen“ Einflussfaktoren
im Rahmen des Risikomanagementprozesses nicht unmittelbar zu quantifizieren sind.
Anders als eine Vielzahl operativer Risiken (Absatzmenge, Absatzpreise, etc.) finden
erfolgskritische qualitative Faktoren wie bspw. Personalverfügbarkeit, Innovations- und
Strategiekonzepte, Know-how, Kundenprofil oder die Produktqualität - trotz ihrer be-
tonten Wichtigkeit - allenfalls durch Scoring-Modelle, Risikochecklisten oder sonstige
von der Planrechnung losgelösten Darstellungsmethoden Berücksichtigung (vgl.
Fülbier/Niggemann/Weller, 2008, S. 80). Die Nicht-Quantifizierung qualitativer Risiken
hat häufig verschiedene Ursachen. Dies liegt zum einen darin begründet, dass viele die-
ser Faktoren lediglich mit unscharfen (engl. fuzzy) Termen wie etwa „ausreichend“,
„genügend“, „stark“ oder „schwach“ umschrieben werden können. Man spricht daher
allgemein von linguistischer Unsicherheit (vgl. Mißler-Behr, 2001, S. 32). Des Weite-
ren wird die Nichterfassung qualitativer Risiken mit der mangelnden Datenverfügbar-
keit, der Aversion vieler Menschen mit Mathematik und modernen Softwarelösungen
umzugehen sowie mit Kenntnisdefiziten hinsichtlich der Methoden der Risikoidentifi-
zierung und -quantifizierung begründet (vgl. Gleißner, 2008, S. 102).
Vorteile der Fuzzy-Set Theorie im Risikomanagementprozess
Um qualitative Risikofaktoren im praxisorientierten Risikomanagementprozess einzu-
binden, bietet sich eine regelbasierte Modellierung unter Zuhilfenahme der Fuzzy-Set
Theorie an (vgl. Kratzberg, 2009, S. 117 f.). Diese geht von der einfachen Annahme
aus, dass ein Element - anders als in der klassischen Mengentheorie - nur zu einem be-
stimmten Grad zu einer Risikomenge gehören kann (vgl. Schroll, 2007, S. 102). Das
236
Element wiederum stellt einen qualitativen Risikofaktor eines Unternehmens dar, den es
im Risikomanagementprozess zu identifizieren, zu bewerten und anschließend mit allen
anderen qualitativen Risikofaktoren zu einer Risikomenge zu aggregieren gilt. Des Wei-
teren lässt sich die Fuzzy-Set Theorie mit einer Wissensbasis verbinden, die eine aktuel-
le Datenversorgung hinsichtlich der qualitativen Risiken und deren Auswirkungen auf
die Größen der Planrechnung gewährleistet. Die hier vorzustellende Methode ergänzt
somit die Prozessschritte des traditionellen Risikomanagementprozess.
Risikoidentifikation
Die Risikoidentifikation beinhaltet die rechtzeitige, regelmäßige und unter Wirtschaft-
lichkeitsaspekten vollständige Erfassung aller Gefahrenquellen und Einzelrisiken, die
Einfluss auf die Erreichung von Unternehmenszielen haben können (vgl. ausführlich
Wolf/Runzheimer, 2009, S. 109 f.). Den Ausgangspunkt jeder Risikoidentifikation stel-
len daher kausal zusammenhängende Ereignisabfolgen dar, die auf eine bestimmte Ziel-
größe wirken. Während im klassischen Risikomanagementprozess die progressive Me-
thode von den identifizierten Risikoursachen ausgeht und deren Wirksamwerden bis hin
zu den Sicherheitszielen - bspw. der Generierung eines Plan-Cashflows - verfolgt, setzt
die retrograde Methode entgegengesetzt an (vgl. Wolf/Runzheimer, 2009, S. 42 f.).
Das unternehmensspezifische Ursachen-/Wirkungsgeflecht wird hier ausgehend von der
Planrechnung durchdrungen, indem diejenigen Faktoren identifiziert und modularisiert
werden, die die jeweilige Zielgröße wesentlich beeinflussen. Auch die Risikoidentifika-
tion im Rahmen der Fuzzy-Set Theorie greift auf die retrograde Methode zurück (vgl.
Abb. 1). Dabei können die unterschiedlichsten Verfahren zum Einsatz kommen, die von
Risiko-Checklisten bis hin zu Expertenworkshops reichen (vgl. allgemein Gleißner,
2008, S. 46 f.).
Risikobewertung und Risikoaggregation
Die klassische Risikobewertung umfasst die quantitative Beschreibung eines Risikos
und ist zudem eine unverzichtbare Grundlage, um anschließend mittels Risikoaggrega-
tion eine Gesamtrisikoposition und dessen Wirkung auf die Planannahmen zu berech-
nen. Erst durch die Risikoaggregierung wird das Risikomanagement in den Kontext von
Planung und Controlling gestellt, um so die Planungssicherheit beurteilen zu können
237
(vgl. Gleißner, 2008, S. 102). Im Rahmen der Fuzzy basierten Vorgehensweise werden
die identifizierten und einzeln bewerteten unscharfen Risikofaktoren über mehrere Stu-
fen aggregiert und dabei zunächst in unscharfe Fuzzy-Mengen umgerechnet (vgl. all-
gemein Reinhart et al., 2008, S. 845 f.). Diese stellen das aggregierte Risikopotential
aller identifizierten Einflussgrößen ei, dar. Durch ihre anschließende „Verschärfung“
werden die aggregierten Mengen in scharfe Ergebnisgrößen ek überführt und mit den
relevanten Größen der Planrechnung einer Periode in Verbindung gebracht (vgl. allge-
mein Momsen, 2006, S. 76).
Scharfe und unscharfe Einflussfaktoren auf die Planrechnung
Umsatzerlöse
Materialaufwand
Personalaufwand
Investitionen ins
Anlagevermögen
sonstige
Aufwendungen
diverse sonstige
Postenei
ei
ei
ei
ei
ei
ek
ek
ek
ek
scharfer Zusammenhang
unscharfer Zusammenhang
ek
ei
scharfe quantitative Ergebnisgröße
unscharfe Einflussgröße (= qualitatives Risiko)
ek
Planrechnung einer Periode
Scharfe und unscharfe Einflussfaktoren auf die Planrechnung
Umsatzerlöse
Materialaufwand
Personalaufwand
Investitionen ins
Anlagevermögen
sonstige
Aufwendungen
diverse sonstige
Postenei
ei
ei
ei
ei
ei
ek
ek
ek
ek
scharfer Zusammenhang
unscharfer Zusammenhang
ek
ei
scharfe quantitative Ergebnisgröße
unscharfe Einflussgröße (= qualitatives Risiko)
ek
Planrechnung einer Periode
Abb. 1: Verbindung der qualitativen Risiken mit der Planrechnung
Ein quantitativ scharfes Risiko ist bspw. das Risiko eines Absatzmengen- und damit
Umsatzeinbruches. Die relevante Zielgröße in der Planrechnung stellt dabei die Ab-
satzmenge dar. Das beschriebene Risiko kann bspw. durch den Wegfall eines wichtigen
Vertriebspartners ausgelöst werden. Zwischen dem Ausfall des Vertriebspartners und
der Absatzmenge (Umsatzerlöse) besteht somit ein scharfer Zusammenhang. Fraglich
ist nun, welche unscharfen Einflussgrößen bzw. Zusammenhänge - d.h. qualitative
238
Risiken - in ihrer aggregierten Wirkung zum Ausfall des Vertriebspartners führen. Des
Weiteren kann die Absatzmenge von weiteren unscharfen Einflussgrößen abhängen
(z.B. Qualität der Produkte). Auch die qualitativen Risiken selbst werden wiederum von
einer Vielzahl von Faktoren (z.B. Qualität der Zulieferteile zur Bestimmung der Quali-
tät der Produkte) gesteuert (vgl. Abb. 1).
Risikosteuerung und Risikoreporting
Aus der aus dem Risikoreporting abgeleiteten Kenntnis über die relative Bedeutung der
einzelnen Risiken und den Gesamtumfang der Bedrohung lässt sich im Rahmen des
klassischen Risikomanagements der Handlungsbedarf für eine gezielte Risikosteuerung
ableiten (vgl. Gleißner, 2008, S. 159 f.). Durch die zusätzliche Identifizierung, Bewer-
tung und Aggregierung qualitativer Risikofaktoren wird durch die Fuzzy-Set Theorie
erreicht, dass sämtliche identifizierte Risikopositionen in die Beurteilung der Bestands-
gefährdung des Unternehmens, in die Berechnung des Eigenkapitalbedarfs oder in die
Ableitung risikogerechter Kapitalkostensätze für die Unternehmenssteuerung mit ein.
Risikoverantwortliche externe Experten
Dialogkomponente Wissenserwerbskomponente
Wissensbasis
Fuzzyfizierung(Risikobewertung der
identifizierten qualitativen
Risiken)
Inferenzkomponente(unscharfe Risikoaggregation
aller identifizierten qualitativen
Risiken)
Defuzzyfizierung(Transformation der
Fuzzy-Mengen in rechenbare
Größen)
ErklärungskomponenteBeeinflussung der
Erfolgsgröße der
Planrechnung
Faktenwissen und Regelwissen
RegelwissenFaktenwissen
Eingangsvariablen
Ausgangsvariablen
der Fuzzy-Inferenz
unscharfes Ergebnislinguistische Terme mit
Zugehörigkeitsgraden
scharfes Ergebnis
Risikosteuerung
Risikoreporting
Risikoverantwortliche externe Experten
Dialogkomponente Wissenserwerbskomponente
Wissensbasis
Fuzzyfizierung(Risikobewertung der
identifizierten qualitativen
Risiken)
Inferenzkomponente(unscharfe Risikoaggregation
aller identifizierten qualitativen
Risiken)
Defuzzyfizierung(Transformation der
Fuzzy-Mengen in rechenbare
Größen)
ErklärungskomponenteBeeinflussung der
Erfolgsgröße der
Planrechnung
Faktenwissen und Regelwissen
RegelwissenFaktenwissen
Eingangsvariablen
Ausgangsvariablen
der Fuzzy-Inferenz
unscharfes Ergebnislinguistische Terme mit
Zugehörigkeitsgraden
scharfes Ergebnis
Risikosteuerung
Risikoreporting
Abb. 2: Fuzzy basiertes Risikomanagement und Wissensbasis
239
2. Wissensbasierte Systeme zur Optimierung des Risikomanagementprozesses
Wissensbasierte Systeme dienen im Rahmen Fuzzy basierter Risikomanagementprozes-
se dazu, die Zusammenhänge zwischen den unscharfen Risiken einerseits und deren
Einfluss auf die scharfen Wert- und Risikotreiber der Planrechnung andererseits aufzu-
decken, zu speichern und strukturiert darzustellen (vgl. Abb. 2).
Dialogkomponente und Wissensbasis
Die Dialogkomponente stellt die Schnittstelle zwischen den Experten (z.B. Risikoma-
nager, externe Gutachter) einerseits und dem Inhalt des wissensbasierten Systems ande-
rerseits dar (vgl. Bennert, 2004, S. 60). Das System soll in der Lage sein, den Risiko-
verantwortlichen eine möglichst differenzierte Einschätzung über alle wesentlichen un-
scharfen Chancen und Risiken eines Unternehmens und deren aggregierten Auswirkun-
gen auf die Planrechnung zu liefern. Um dies zu erreichen, ist die Wissensbasis durch
unterschiedliche Verfahren mit entsprechendem Datenmaterial anzureichern, welches in
ein Faktenwissen sowie ein Regelwissen unterteilt wird (vgl. zu den Verfahren
Beemelmann, 2007, S. 162 f.). Das Faktenwissen ist so aufzubauen, dass alle auf eine
Ergebnisgröße ek (z.B. Absatzmenge) einwirkenden unscharfen Einflussgrößen ei im
Rahmen der retrograden Risikoidentifikation vollständig identifiziert und bewertet wer-
den können. Das Regelwissen wiederum beinhaltet die Kenntnisse über das Zusam-
menwirken verschiedener unscharfer Einflussgrößen ei
Beispiel 1
Die Absatzmenge von Softwareprodukten (Zielgröße ek) eines Unternehmens hängt laut
Faktenwissen des Risikomanagers annahmegemäß von folgenden unscharfen Einfluss-
größen ei ab (vgl. Abb. 3):
Der Verkaufsstärke des Vertriebsmanagements,
der Abwanderungsgefahr von Vertriebsprofis,
von der Wiederkaufrate,
vom Umfang der Marketingmaßnahmen (z.B. Teilnahme an Kongressen und
„indirekte“ Werbung durch Publikationen firmeneigener Mitarbeiter),
vom Presseecho (z.B. Empfehlungen in Fachzeitschriften),
240
vom Umfang der Kooperationen mit Hochschulen und ähnlichen IT-spezifischen
Bildungseinrichtungen.
Um die Zusammenhänge zwischen den unscharfen Einflussgrößen verknüpfen zu kön-
nen, sind diese unter Zuhilfenahme der Regelblöcke zu aggregieren. Dabei kann das
aggregierte Ergebnis eines Regelblocks wiederum Bestandteil eines übergeordneten
Regelblocks sein. Welche unscharfen Einflussgrößen zu einem Regelblock aggregiert
werden bzw. wie viele Regelblöcke zu modellieren sind, ist Bestandteil des Regelwis-
sens. Ausgehend von der scharfen Ergebnisgröße des Planungsmodells ek (Absatzmen-
ge) sind zunächst die unscharfen Einflussgrößen des obersten Regelblocks zu ermitteln
und auf die niedrigste Aggregationsebene herunter zu brechen. Anschließend werden
die Ergebnisse dieser retrograden Risikoidentifikation miteinander verknüpft und über
mehrere Ebenen (Regelblöcke) aggregiert. Eine wichtige Aufgabe kommt den Risiko-
verantwortlichen dabei im Zuge der Formulierung der sog. WENN ... DANN ... - Re-
gelsätze zu (vgl. allgemein hierzu Schroll, 2007, S. 138 f.).
In Fortsetzung des obigen Beispiels wirkt annahmegemäß auf die Kundentreue zum
einen der Publike Einfluss, zum anderen die Wiederkaufrate. Der Publike Einfluss
wiederum ermittelt sich aus den Eingangsvariablen Presseecho und Marketing. Damit
stellt Regelblock 2 zur Ermittlung der Kundentreue die unterste Hierarchieebene dar.
Regelblock 4 bildet hingegen den obersten Regelblock, da dieser die scharfe Aus-
gangsvariable (Absatzmengenwirkung) enthält.
Abb. 3: Graphische Darstellung des Regelwissens
241
Entsprechende WENN ... DANN ... - Regelsätze könnten dann bspw. wie folgt formu-
liert werden:
„WENN die Ausgaben für die Marketingmaßnahmen hoch sind und das Presseecho
positiv ist, DANN ist auch der Publike Einfluss positiv“
„WENN der Publike Einfluss positiv ist und eine große Wiederkaufrate vorliegt,
DANN ist die Kundentreue hoch“
„WENN die Kundentreue hoch ist und eine hohe Managementqualität vorliegt,
DANN hat dies auch auf die Absatzmenge positive Auswirkungen“.
Inferenz- und Erklärungskomponente
Die Inferenzkomponente bildet das Herzstück eines wissensbasierten Systems und
enthält quasi das Wissen über die Verarbeitung des Regelwissens (vgl. Momsen, 2006,
S. 70 f.). Der Risikoverantwortliche legt hier die Rechenschritte zur richtigen
Aggregierung aller unscharfen Einflussgrößen (qualitativen Risiken) eines Unterneh-
mens offen. Wichtige Fragen in diesem Zusammenhang sind:
Welche Einflussstärke haben die unscharfen Einflussgrößen ei auf einen Regel-
block?
Welche Einflussrichtung (positive oder negative Wirkung) haben die unscharfen
Einflussgrößen ei auf einen Regelblock?
Mit welchen Rechenoperatoren sind die einzelnen unscharfen Einflussgrößen ei zu
aggregieren?
Die Erklärungskomponente hat zur Aufgabe, die Nachvollziehbarkeit der einzelnen
kausal zusammenhängenden Ereignisabfolgen und ihre Verknüpfungen in Regelblöcken
bis hin zur Zielgröße ek der Planrechnung aufzuzeigen (vgl. Bennert, 2004, S. 60).
Wissenserwerbskomponente
Die Wissenserwerbskomponente spielt sowohl bei der Entwicklung als auch bei der
Pflege der Wissensbasis eine entscheidende Rolle. So kann bspw. das in der Balanced
Scorecard abgebildete unscharfe (Regel-)Wissen über die Ursachen- und Wirkungszu-
sammenhänge qualitativer Risikofaktoren auf bestimmte finanzwirtschaftliche Größen
der Planrechnung vor dem Hintergrund einer Fuzzy basierten Risikoidentifikation und -
242
aggregierung genutzt werden. Wichtiges Faktenwissen hinsichtlich der Kunden-, Stra-
tegie-, Lern- und Prozessperspektive sowie ihrer Auswirkungen auf die Planrechnung
fließen so in die Wissensbasis mit ein (vgl. allgemein zur Balanced Scorecard im Risi-
komanagement Wurl/Mayer, 2001, S. 180 f.). Die in den einzelnen nicht-finanziellen
Perspektiven der Scorecard abgebildeten Risiken (z.B. Produktqualität) sind hierbei als
unscharfe Einflussgrößen ei zu interpretieren. Die quantitative Ebene der Scorecard be-
inhaltet hingegen jene Erfolgsgrößen der Planrechnung, die durch die aggregierten qua-
litativen Risikofaktoren beeinflusst werden (vgl. Abb. 4).
Qualitative Ebene
Quantitative Ebene
Kunden-/
Marktperspektive(z.B. Kundenzufriedenheit,
Marktanteil)
Finanzperspektive(Erfolgsgrößen der
Planrechnung,
z.B. Absatzmenge)
Lern-/Entwicklungs-
perspektive(z.B. Managementqualität,
Facharbeiterquote)
Strategie-/
Produktperspektive(z.B. Produktqualität,
Innovationsgrad)
Prozessperspektive(z.B. Durchlaufzeiten,
Fehlerquote)
Balanced
Scorecard
&
Fuzzy-Set
Theorie
Unscharfe Einflüsse
Wissensbasis (Faktenwissen)
Wissensbasis (Regelwissen)
Qualitative Ebene
Quantitative Ebene
Kunden-/
Marktperspektive(z.B. Kundenzufriedenheit,
Marktanteil)
Finanzperspektive(Erfolgsgrößen der
Planrechnung,
z.B. Absatzmenge)
Lern-/Entwicklungs-
perspektive(z.B. Managementqualität,
Facharbeiterquote)
Strategie-/
Produktperspektive(z.B. Produktqualität,
Innovationsgrad)
Prozessperspektive(z.B. Durchlaufzeiten,
Fehlerquote)
Balanced
Scorecard
&
Fuzzy-Set
Theorie
Unscharfe Einflüsse
Wissensbasis (Faktenwissen)
Wissensbasis (Regelwissen)
Abb. 4: Einbindung der Balanced Scorecard in die Wissensbasis
Zur Optimierung der Wissenserwerbskomponente sollte des Weiteren auch auf öffent-
lich zugängliche Daten zurückgegriffen werden. Hier bieten sich sowohl traditionelle
als auch softwaregestützte Analysemöglichkeiten an, die direkt als Schnittstelle zur
Wissensbasis fungieren können. Zu nennen wäre bspw. die Wettbewerbsanalyse (vgl.
Henselmann, 2005, S. 296 f.; Hummeltenberg, 2008, S. 41). Einflussgrößen und Er-
folgsfaktoren lassen sich auch durch den PIMS-Ansatz (Profit Impact of Market
Strategies) offen legen (vgl. Brunner, 2010, S. 185). Dieser versucht, die maßgeblichen
unscharfen Einflussfaktoren (Kundenprofil, relativer Marktanteil, etc.) empirisch für
den Erfolg einer Strategie und deren Wechselwirkungen quantitativ zu erfassen (vgl.
Müller-Stewens/Lechner, 2005, S. 322; Klemm-Bax, 2000, S. 7 f.).
243
3. Anbindung der Wissensbasis an den Fuzzy basierten Risikomanagementprozess
Die Verarbeitung des in der Wissensbasis abgelegten Fakten- und Regelwissens lässt
sich allgemein in die drei Bereiche Fuzzyfizierung, Fuzzy-Inferenz und
Defuzzyfizierung unterteilen (vgl. allgemein Beemelmann, 2007, S. 168 f.).
Fuzzyfizierung der identifizierten unscharfen Einflussgrößen
Die Fuzzyfizierung umfasst allgemein die Übertragung eines verbalen, unscharfen Aus-
drucks in sein korrespondierendes Fuzzy-Pendant (vgl. Beemelmann, 2007, S. 170).
Hierzu sind die im Rahmen des Wissenserwerbs aufgedeckten unscharfen Einflussgrö-
ßen ei eines jeden Regelblocks zunächst als linguistische Variablen zu formulieren.
Die Variablen werden hierbei als Quadrupel (X, T, U, M) umschrieben, wobei X den
Namen der Variablen, T den Wertebereich (Termmenge bzw. linguistische Terme), U
den Definitionsbereich und M die Semantik darstellt (vgl. ausführlich Schroll, 2007, S.
129 f.). Die Semantik stellt die Form von unscharfen Mengen dar, deren Zugehörig-
keitsfunktionen μt : X → [0;1] mit t ε T die Bedeutung der Terme in T angeben.
Beispiel 2
Für die in der Risikoidentifikation aufgedeckten unscharfen Einflussgrößen Kunden-
treue und Managementqualität ergeben sich bspw. folgende zwei Quadrupel:
X = „Kundentreue“, „Managementqualität“ (Namen der linguistischen Variablen)
T = „sehr niedrig“, „niedrig“, „mittel“, „hoch“, „sehr hoch“ (Termmenge Kundentreue)
T = „niedrig“, „mittel“, „hoch“ (Termmenge Managementqualität)
U = [0 Punkte; 100 Punkte] (jeweiliger Definitionsbereich)
M = μsehr niedrig; μniedrig; μmittel; μhoch; μsehr hoch (Semantik Kundentreue)
M = μniedrig; μmittel; μhoch (Semantik Managementqualität)
Bei der Fuzzyfizierung der identifizierten Einflussgrößen ei sind zwei Varianten zur
Bestimmung der jeweiligen Zugehörigkeitswerte zu unterscheiden. Zum einen kann
der festgelegte Definitionsbereich U durch die Risikoverantwortlichen mit die
Termmenge T abbildenden Zugehörigkeitsfunktionen unterlegt und anschließend der
jeweilige Zugehörigkeitswert daraus abgeleitet werden. Hierzu muss im Rahmen des
244
Risikomanagements zunächst für jede identifizierte unscharfe Einflussgröße die Form
der Zugehörigkeitsfunktion bestimmt und der jeweilige Definitionsbereich in Teilab-
schnitte gegliedert werden. Im Regelfall sind hierbei sich überlappende Dreiecks- oder
Trapezfunktionen problemangemessen, die keine strikten Grenzen aufweisen (vgl.
Beemelmann, 2007, S. 170; Schroll, 2007, S. 131). Danach wird ermittelt, in welchen
Teilabschnitt der auf der Abszisse abzutragende Punktwert fällt.
Ein Punktwert zwischen 0 bis 25 könnte bspw. eine sehr niedrige, ein Punktwert zwi-
schen 20 bis 45 Punkten eine niedrige und ein Wert zwischen 35 bis 65 Punkten eine
mittlere Kundentreue widerspiegeln. Wird die Kundenzufriedenheit z.B. durch den
Kundenzufriedenheitsindex einer Balanced Scorecard mit 37 Punkten beziffert und
als Maßstab für die Kundentreue interpretiert (vgl. Abb. 5), ergibt sich demzufolge für
die unscharfe Einflussgröße Kundentreue ein Zugehörigkeitswert vom Grad 0,7 („nied-
rig“) sowie ein Zugehörigkeitswert vom Grad 0,3 („mittel“). Die Form der Zugehörig-
keitsfunktion und die Definition der Teilabschnitte nehmen dabei unmittelbar Einfluss
auf das spätere Ergebnis der Risikoaggregation, sodass diese durch die Risikoverant-
wortlichen besonders sensibel zu modellieren sind.
Kundentreue (= linguistische Variable)
sehr niedrig niedrig sehr hochhochmittel
1
0
niedrig
vom
Grad 0,7
mittel
vom
Grad 0,3
100
37
Kundenzufriedenheit in Punkten
Zugehörigkeit
Kundenzufriedenheit (Indexwert aus Balanced Scorecard)
linguistische Terme
Kundentreue (= linguistische Variable)
sehr niedrig niedrig sehr hochhochmittel
1
0
niedrig
vom
Grad 0,7
mittel
vom
Grad 0,3
100
37
Kundenzufriedenheit in Punkten
Zugehörigkeit
Kundenzufriedenheit (Indexwert aus Balanced Scorecard)
linguistische Terme
Abb. 5: Dreieckige Zugehörigkeitsfunktion ohne strikte Grenzen
Alternativ können die Zugehörigkeitswerte der unscharfen Einflussgrößen ei auch di-
rekt durch den Risikoverantwortlichen auf einer Skala von 0 bis 1 geschätzt werden.
Die Ermittlung einer Zugehörigkeitsfunktion und eines Definitionsbereichs erübrigt sich
somit (vgl. Klein, 2010, S. 42 f.). Zu beachten ist, dass sich die Schätzungen über die
245
gesamte Termmenge hinweg nicht unbedingt auf 1 summieren müssen, da Fuzzy-
Mengen keine Wahrscheinlichkeiten widerspiegeln.
Fortsetzung Beispiel 1
Hinsichtlich des komplexeren Beispiels 1 (vgl. Abb. 3) sind die Zugehörigkeitswerte für
die Berufserfahrung des Managements, den Umfang des Marketings und für die identi-
fizierte Wiederkaufrate nach Festlegung der jeweiligen Termmengen, der Definitionsbe-
reiche und der Form der Zugehörigkeitsfunktionen annahmegemäß aus Indexwerten
einer Balanced Scorecard abzuleiten. Die Abwanderungsgefahr und das Presseecho
sind durch die Risikoverantwortlichen hingegen direkt zu erfragen (vgl. Abb. 6). An-
nahmegemäß konnten die Risikoverantwortlichen für jeden Geschäftsbereich (GB) die
in Abb. 7 dargestellten Fuzzy-Daten eines fiktiven Unternehmens ermitteln.
Nr. Name der
unscharfen Einflussgröße ei
Einheit
Definitionsbereich Wirkung auf
Absatz Termmenge
Min Max
1 Abwanderungsgefahr - - - sehr
negativ
niedrig mittel hoch
2 Berufserfahrung Jahre 0 40 sehr
positiv
niedrig mittel hoch
3 Marketing Punkte 0 100 sehr
positiv
sehr_niedrig niedrig mittel hoch
sehr_hoch
4 Presseecho - - - sehr
positiv
negativ_groß negativ
null positiv
positiv_groß
5 Wiederkaufrate Prozent 0 100 sehr
positiv
klein mittel groß
Abb. 6: Definition der unscharfen Eingangsvariablen
Anders als in Beispiel 2 stellen hier die Managementqualität und die Kundentreue Re-
gelblöcke dar, welche selbst von einer Vielzahl qualitativer Risikofaktoren beeinflusst
246
werden. Das gleiche gilt für den Regelblock Publiker Einfluss. Entsprechend ergeben
sich die Fuzzy Zugehörigkeitswerte dieser drei Blöcke bereits implizit aus der Fuzzy-
Inferenz und müssen nicht direkt durch die Risikoverantwortlichen erhoben oder über
einen Indexwert der Scorecard ermittelt werden.
Nr. Name der
unscharfen Einflussgröße ei
Typ Term, Indexgröße GB 1 GB 2 GB 3
1 Abwanderungsgefahr
niedrig 0,25 0,05 0,80
mittel 0,17 0,61 0,10
hoch 0,03 0,19 0,00
2 Berufserfahrung Jahre 17 9 34
3 Marketing Punkte 60 40 78
4 Presseecho
negativ_groß 0,05 0,74 0,00
negativ 0,22 0,19 0,00
null 0,34 0,08 0,23
positiv 0,19 0,00 0,45
positiv_groß 0,02 0,00 0,09
5 Wiederkaufrate Prozentpunkte 23 61 50
Abb. 7: Ergebnisse der Risikobewertung durch die Risikoverantwortlichen
Fuzzy-Inferenz
Mittels der Fuzzy-Inferenz gelingt es, die in der Risikoidentifikation aufgedeckten und
mit Zugehörigkeitswerten quantifizierten unscharfen Einflussgrößen für jeden Regel-
block zu einer unscharfen Fuzzy-(Gesamtergebnis-)Menge zu verknüpfen (vgl. allge-
mein Schroll, 2007, S. 133 f.). Bestandteile der Fuzzy-Inferenz stellen die Regelbasis,
der Inferenzmechanismus und die Zugehörigkeitsfunktionen der Fuzzy-Mengen dar
(vgl. Momsen, 2006, S. 71 f.).
247
Fortsetzung Beispiel 1
Betrachtet man das obige Modell sind sowohl die Absatzmenge, die Kundentreue, die
Managementqualität und der Publike Einfluss als Regelblöcke in die Inferenz einzube-
ziehen (vgl. Abb. 3). Der oberste Regelblock (Regelblock 4) fasst dann alle Fuzzy-
Mengen zu einer Fuzzy-Gesamtergebnismenge zusammen. Die Risikoverantwortli-
chen haben für jeden Regelblock bzw. für jede Ausgangsvariable die möglichen
Termausprägungen, den Definitionsbereich, die Form der Zugehörigkeitsfunktion sowie
die Einflussrichtung und -stärke auf den Regelblock, in den diese wiederum einfließen,
festzulegen (vgl. Abb. 8).
Nr. Name des Regelblocks Einheit
Definitionsbereich Wirkung auf
Absatz Termmenge
Min Max
4 Absatzmenge z.B.
Prozent -10 10 ---
negativ_groß negativ
null positiv
positiv_groß
3 Kundentreue Punkte 0 100 sehr
positiv
sehr_niedrig niedrig mittel hoch
sehr_hoch
2 Publiker Einfluss Punkte -100 100 sehr
positiv
negativ_groß negativ
null positiv
positiv_groß
1 Managementqualität Punkte 0 100 sehr
positiv
niedrig mittel hoch
Abb. 8: Definition der Ausgangsvariablen (Regelblöcke)
Aufgabe der Fuzzy-Inferenz ist zunächst, die Zugehörigkeitswerte der aktiven Regel-
sätze einer Regelbasis durch das Zusammenführen aller identifizierten unscharfen Ein-
flussgrößen ei, die auf einen Regelblock wirken, zu ermitteln. Die Zugehörigkeitswerte
stellen dabei die Outputgrößen zur Errechnung der unscharfen Fuzzy-Menge eines Re-
gelblocks dar. Hierzu müssen für jeden Regelblock alle im Regelwissen der Wissens-
basis gespeicherten WENN ... DANN ... - Regelsätze zu einer Regelbasis zusammen-
geführt werden (vgl. Bennert, 2004, S. 61 f.). Für die beiden unscharfen und impliziten
248
Einflussgrößen des Regelblocks 4 (Kundentreue und Managementqualität) ergeben sich
bspw. bei fünf bzw. drei linguistischen Termen 15 (= 5*3) zu formulierende Regelsätze,
die zusammen die Regelbasis bilden (vgl. Abb. 3 und Abb. 9). Annahmegemäß werden
durch die vorgelagerten Fuzzy-Inferenzen für die Termmenge der Managementqualität
Zugehörigkeitswerte von 0,2 („hoch“) und 0,8 („mittel“), für die der Kundentreue Zu-
gehörigkeitswerte von 0,3 („mittel“) bzw. 0,7 („niedrig“) ermittelt. Um nun die aktiven
Regelsätze dieser Regelbasis identifizieren zu können, sind diejenigen Regelsätze her-
auszufiltern, die sowohl die Terme „mittel“ oder „niedrig“ im Rahmen der Kundentreue
als auch die Terme „hoch“ oder „mittel“ im Rahmen der Managementqualität enthalten.
Ein Regelsatz gilt also dann als aktiv, wenn alle darin enthaltenen Prämissen gleichzei-
tig erfüllt sind (vgl. Schroll, 2007, S. 128). Die entsprechenden aktiven Regelsätze sind
in Abb. 9 grau hinterlegt. Fraglich ist nun, welche Zugehörigkeitswerte die unscharfe
Fuzzy-Menge des jeweiligen Regelblocks (= Ausgangsvariable) annimmt. Um diese
Frage beantworten zu können, sind die in der Inferenzkomponente der Wissensbasis
gespeicherten Sachverhalte im Inferenzmechanismus umzusetzen (vgl. Kap. 2).
Regelsatz
unscharfe Einflussgrößen ei
Zielgröße der Planrechnung ek
WENN DANN
Kundentreue Managementqualität Absatzmenge
1 sehr hoch hoch positiv_groß
2 sehr hoch mittel positiv
3 sehr hoch niedrig null
4 hoch hoch positiv
5 hoch mittel positiv
6 hoch niedrig null
7 mittel (0,3) hoch (0,2) null (0,2)
8 mittel (0,3) mittel (0,8) null (0,3)
9 mittel niedrig negativ
10 niedrig (0,7) hoch (0,2) null (0,2)
11 niedrig (0,7) mittel (0,8) negativ (0,7)
12 niedrig niedrig negativ
13 sehr niedrig hoch null
14 sehr niedrig mittel negativ
15 sehr niedrig niedrig negativ_groß
Abb. 9: Regelbasis der Ausgangsvariablen Absatzmenge (Regelblock 4)
Die Vereinigung der aktiven Regelsätze erfolgt durch Rechenoperatoren (vgl. zu den
Verknüpfungsoperatoren allgemein Schroll, 2007, S. 104 f.), wobei die Literatur zur
249
Fuzzy-Set Theorie im Rahmen betriebswirtschaftlicher Anwendungen auf die Vorteile
des Minimum-Operators hinweist (vgl. Beemelmann, 2007, S. 175; Klein, 2010, S. 50).
Dadurch wird der niedrigste Zugehörigkeitswert für die unscharfe Fuzzy-Menge eines
Regelblocks berücksichtigt. Abschließend werden im Inferenzmechanismus noch dieje-
nigen aktiven Regelsätze, die den gleichen linguistischen Term - jedoch mehrere unter-
schiedliche Zugehörigkeitswerte - aufweisen, vereinigt. Betriebswirtschaftlich hat sich
hierbei der Maximum-Operator als problemangemessen erwiesen, welcher stets den
maximalen Zugehörigkeitswert einer Termausprägung erfasst (vgl. hierzu sowie zu den
Operatoren allgemein Bennert, 2004, S. 52 f.). Gem. Abb. 9 wären dies bspw. die akti-
ven Regelsätze 7, 8 und 10, die zwar den gleichen linguistischen Term („null“), aber
keinen einheitlichen Zugehörigkeitswert aufweisen. Demzufolge ergibt sich als un-
scharfe Fuzzy-Menge des Regelblocks 4 folgende Kombination: Mit einem Zugehö-
rigkeitswert von 0,7 ist die Fuzzy-Menge negativ (= scharfer Regelsatz 11), mit einem
Zugehörigkeitswert von 0,3 (= max[scharfe Regelsätze 7, 8 und 10] = max[0,2; 0,3;
0,2]) null (vgl. Abb. 10).
10
negativ_ groß negativ positiv_großpositivnull
1
0
negativ
vom
Grad 0,7
null
vom
Grad
0,3
zusätzliche Absatzmenge (in %)
Zugehörigkeitlinguistische Terme der Ausgangsvariablen Absatzmenge
scharfer Erwartungswert der Absatzmenge nach der
Flächenschwerpunktmethode (Center-of-Area Method)
a b 10
negativ_ groß negativ positiv_großpositivnull
1
0
negativ
vom
Grad 0,7
null
vom
Grad
0,3
zusätzliche Absatzmenge (in %)
Zugehörigkeitlinguistische Terme der Ausgangsvariablen Absatzmenge
scharfer Erwartungswert der Absatzmenge nach der
Flächenschwerpunktmethode (Center-of-Area Method)
a b
Abb. 10: Graphische Darstellung des Ergebnisses der Fuzzy-Inferenz und der Defuzzyfizierung
Die Auswahl des richtigen Operators und der Zugehörigkeitsfunktionen beeinflusst das
Ergebnis der Fuzzy-Inferenz und erfordert daher eine sorgfältige Prüfung durch die Ri-
sikoverantwortlichen. Darüber hinaus ist im Rahmen des Risikomanagements festzule-
gen, in welche Richtung (Einflussrichtung) und in welcher Stärke (Einflussstärke) die
unscharfen Einflussgrößen auf die Ergebnisgröße der Planrechnung wirken. Des Weite-
250
ren können die identifizierten unscharfen Einflussgrößen unterschiedlich gewichtet
werden. Die marktgängigen Softwareprogramme bieten hierfür zahlreiche Optionen an
(vgl. Kratzberg, 2009, S. 260).
Defuzzyfizierung
Das Ergebnis der Fuzzy-Inferenz, d.h. die unscharfe Fuzzy-Menge eines Regelblocks
bzw. aller aggregierten unscharfen Einflussgrößen, kann in der vorliegenden Form noch
nicht unmittelbar interpretiert werden. Aufgabe der Defuzzyfizierungskomponente ist es
daher, das Ergebnis der Fuzzy-Inferenz in einen scharfen Outputwert zu transformie-
ren, sofern die unscharfe Fuzzy-Menge eines Regelblocks in die Planrechnung eingehen
oder im Rahmen des Risikoreportings gesondert dargestellt werden soll (vgl. allgemein
Träger, 1994, S. 102).
Durch die Defuzzyfizierung werden die auf eine unscharfe Fuzzy-Gesamt-
ergebnismenge verdichteten qualitativen Einflussgrößen in eine quantitativ verwertbare
Größe übersetzt, die letztlich in die Planrechnung einfließen kann. Hierbei stehen je
nach eingesetzter Software unterschiedliche Dekompositionsalgorithmen zur Verfü-
gung, die sich in Extremwert- und Flächenmethoden unterteilen lassen (vgl. zu den
unterschiedlichen Methoden Kratzberg, 2009, S. 146 f.). Je nach Methode wird ein be-
stimmter Punkt der Fuzzy-Menge ermittelt. Der Schnittpunkt mit der Abszisse ergibt
dann den scharfen Outputwert der gesuchten Zielgröße. In der Praxis betriebswirtschaft-
licher Anwendungen hat sich die Flächenschwerpunktmethode (Center-of-Area Me-
thod) bewährt (vgl. Beemelmann, 2007, S. 176). Um hierbei auf den gesuchten Abszis-
senwert zu gelangen, wird über das Integral der Schwerpunkt der Fläche innerhalb sei-
ner Intervallgrenzen berechnet (vgl. Schroll, 2007, S. 149 f., vgl. Abb. 10):
b
a
eAbsatzmeng xdFF
x1
Fortsetzung Beispiel 1
Durch das Abarbeiten der im Fuzzyfizierungsprozess bewerteten und in der Fuzzy-
Inferenz verarbeiteten qualitativen Risiken (vgl. Abb. 7) stellt nach Durchführung der
Defuzzyfizierung der Geschäftsbereich 3 (+7,41) die größte qualitative Chance bzw. das
251
geringste Risiko für die Ergebnisgröße der Planrechnung (Absatzmenge) dar. Der Ge-
schäftsbereich 2 (-5,45) schneidet unter Berücksichtigung und Aggregierung aller un-
scharfen Einflussgrößen ei hingegen am schlechtesten ab (vgl. Abb. 11).
Geschäfts-bereich
unscharfe Fuzzy-Gesamtergebnismenge und scharfe Ergebnisgröße der Planrechnung
Beurteilung/ Maßnahmen zur Risikosteuerung
1
Qualitative Risiken und Chan-cen sind weitgehend ausgeglichen
Einflussgrößen weiter optimieren um positives Ergebnis zu erzielen
2
Qualitative Risiken überwiegen Chancen
Risikosteuerungsmaßnahmen einleiten
3
Qualitative Chancen überwiegen Risiken
Geschäftsbereich fokussieren
Abb. 11: Unscharfe Fuzzy-Gesamtergebnismenge und scharfe Ergebnisgröße der Planrechnung
(Quelle: Eigene Darstellung, Graphiken basierend auf fuzzyTECH 5.7)
Im Grunde geht es bei der Defuzzyfizierung nicht darum, einen ohnehin nur schwer
quantifizierbaren Wert im Sinne eines bspw. prozentualen Ab- oder Zuschlags von der
geplanten oder historisch erzielten Absatzmenge punktgenau zu ermitteln. Vielmehr ist
die Fuzzy-Set Theorie dazu zu nutzen, um die qualitative Risikostruktur des jeweili-
gen Geschäftsbereiches in Bezug auf die Planrechnung tendenziell und verdichtet für
die weiteren Maßnahmen im Rahmen der Risikosteuerung aufzuzeigen. Die durch das
Softwareprogramm generierten Statistiken und die graphischen Auswertungen können
zudem das Risikoreporting bereichern. Die qualitativen Risikostrukturen werden dar-
stellbar und damit die Regelblöcke und Einflussgrößen identifizierbar, die besonders
negativ oder positiv zum Erfolg einer Plangröße beitragen.
252
4. Fazit
Die Fuzzy-Set Theorie ermöglicht, linguistische Unsicherheiten und damit „unscharfe“
bzw. qualitative Risikofaktoren im Risikomanagementprozess zu identifizieren und zu
aggregieren, indem diese
vorher nur schwer erschließbare interne und externe Datenquellen mittels neuen
Techniken der Informationsverarbeitung zugänglich macht,
Transparenz bei der im Risikomanagementprozess vorzunehmenden Datenerhebung
und -verarbeitung erzeugt,
eine neue Möglichkeit bietet, Einschätzungen von Experten (Risikomanager, Ge-
schäftsbereichsleiter, etc.) so zu erfassen, wie diese sie formulieren und
die Weiterverarbeitung aggregierter unscharfer Einflussgrößen im Rahmen der Plan-
rechnung durch deren Defuzzyfizierung ermöglicht und dadurch wichtige Erkennt-
nisse zu notwendigen Risikosteuerungsmaßnahmen liefert.
Die Erstellung des Modells führt - sofern in der Wissensbasis noch kein gespeichertes
Fakten- und Regelwissen vorhanden ist - für die Risikoverantwortlichen allerdings auch
zu einem erhöhten Schätz- und Datengewinnungsaufwand. Die Art und Ausgestaltung
der Zugehörigkeitsfunktionen, der notwendigen Rechenoperatoren, der möglichen Ver-
fahren zur Defuzzyfizierung sowie die Festlegung der Einflussrichtung und -stärke ha-
ben unmittelbare Auswirkungen auf das quantitative Risikoausmaß der zu aggregieren-
den Einflussgrößen. Probleme bereitet auch der zeitliche Anfall der Chancen und Risi-
ken. Unscharfe Erfolgsfaktoren (z.B. Kundenzufriedenheit, Produktqualität) wirken
meist erst zu einem späteren Zeitpunkt auf die Größen der Planrechnung. Nicht zuletzt
unterliegt die Interpretation, wie sich die aggregierten Einflussgrößen auf die jeweilige
Größe im Planungsmodell auswirken, einer „gewissen Scheingenauigkeit“. Trotz dieser
Nachteile ermöglicht die Fuzzy-Set Theorie eine frühzeitige und umfassende Aufde-
ckung und Aggregierung der wichtigsten Wert- und Risikotreiber. Durch eine enge Ver-
zahnung mit der Erfolgsfaktorenforschung können „leading indicators“ und deren Ein-
flüsse auf den Unternehmenserfolg frühzeitig entdeckt und entsprechend im Risikoma-
nagementprozess gesteuert werden. Entsprechende Softwareprogramme, die als Schnitt-
stelle zu den Daten des Risikomanagements bzw. -controllings (z.B. Balanced
Scorecard) fungieren, setzen die hier vorgestellten Konzepte zudem einfach in die Pra-
253
xis um. Weitere Forschungsarbeiten könnten sich dem hier vorgestellten Ansatz vertieft
widmen und zur Integrierung im unternehmensspezifischen Risikomanagementprozess
beitragen.
254
Literaturverzeichnis
Beemelmann, T., Segmentermittlung und Potentialbewertung im Wertpapiergeschäft
mittels Fuzzy-Logic, Saarbrücken 2007.
Bennert, R., Soft Computing-Methoden in Sanierungsprüfung und -controlling. Ent-
scheidungsunterstützung durch Computational Intelligence, Wiesbaden 2004.
Brunner, F., Strategieevaluierung: Zentrale Fragestellung der Unternehmensbewertung,
in: Corporate Finance biz, 1. Jg. (2010), H. 3, S. 183-187.
Fülbier, R./Niggemann, T./Weller, M., Verwendung von Rechnungslegungsdaten durch
Aktienanalysten: Eine fallstudienartige Auswertung von Analystenberichten zur
Automobilindustrie, in: Finanz-Betrieb, 10. Jg. (2008), H. 12, S. 806-813.
Gleißner, W., Grundlagen des Risikomanagements im Unternehmen, München 2008.
Helbling, C., Besonderheiten der Bewertung von kleinen und mittleren Unternehmen,
in: Peemöller, V. (Hrsg.), Praxishandbuch der Unternehmensbewertung, 4. Aufl.,
Herne 2009, S. 707-717.
Henselmann, K., Value Reporting und Konkurrenzanalyse, in: BFuP, 57. Jg. (2005), H.
3, S. 296-305.
Hummeltenberg, W., Disziplinen von Business Intelligence, in: Kortzfleisch, H./Bohl, O.
(Hrsg.), Wissen-Vernetzung-Virtualisierung, Lohmar 2008, S. 41-56.
Klein, M., Valuation is fuzzy. Integration qualitativer Risiken ins stochastische Bewer-
tungsmodell mit Hilfe der Fuzzy-Set Theorie, Working Paper in Accounting Valua-
tion Auditing Nr. 2010-8, Nürnberg 2010.
Klemm-Bax, S., Erfolgsfaktoren: Ein unscharfer Modellansatz zur Bestimmung des
Unternehmenserfolgs auf der Grundlage empirischer Daten, Paderborn 2000.
Kratzberg, F., Fuzzy-Szenario-Management. Verarbeitung von Unbestimmtheit im stra-
tegischen Management, Göttingen 2009.
Mißler-Behr, M., Fuzzybasierte Controllinginstrumente. Entwicklung von unscharfen
Ansätzen, Wiesbaden 2001.
Momsen, B., Entscheidungsunterstützung im Wissensmanagement durch Fuzzy regelba-
sierte Systeme, Göttingen 2006.
Müller-Stewens, G./Lechner, C.: Strategisches Management. Wie strategische Initiati-
ven zum Wandel führen, 3. Aufl., Stuttgart 2005.
255
Reinhart, G./Krebs, P./Haas, M./Zäh, M.: Monetäre Bewertung von Produktionssyste-
men. Ein Ansatz zur Integration von qualitativen Einflussfaktoren in die monetäre
Bewertung unter Unsicherheit, in: Zeitschrift für wirtschaftlichen Fabrikbetrieb,
103. Jg. (2008), H. 12, S. 845-850.
Schroll, A., Bedarfs- und mitarbeitergerechte Dienstplanung mit Fuzzy-Control, Göttin-
gen 2007.
Träger, D. H., Einführung in die Fuzzy-Logik, 2. Aufl., Stuttgart 1994.
Wolf, K./Runzheimer, B.: Risikomanagement und KonTraG, 5. Aufl., Wiesbaden 2009.
Wurl, H./Mayer, J., Balanced Scorecards und industrielles Risikomanagement. Mög-
lichkeiten der Integration, in: Klingebiel, N./Hoffmann, O. (Hrsg.), Performance
Measurement und Balanced Scorecard, München 2001, S. 180-213.
256
257
Anhang 3
Proaktives Risikomanagement im Mittelstand Eine Option zur frühzeitigen Ableitung von Krisen- und Insolvenzprognosen?
erschienen in: Zeitschrift für Krisen-, Sanierungs- und Insolvenzberatung (KSI) 2011, Heft 1, S. 5-12
(mit André Höfner)
258
259
1. Einleitung
Krisensituationen entstehen durch für die Geschäftsführung unerwartete dynamische
Entwicklungen mit bedeutendem Einfluss für die Finanz- und Ertragslage, wobei der
normale Ablauf der unternehmerischen Tätigkeit schlagartig gestört wird.1 Nicht selten
droht dabei als letzte Konsequenz die Aufgabe der Geschäftstätigkeit. Studien zeigen,
dass viele mittelständische Unternehmen zwar Strukturen zum Management von Risi-
ken implementiert haben, deren Umsetzung sich häufig jedoch auf reaktive Risikobe-
wältigungs- und -vermeidungsmaßnahmen beschränkt.2 Umfassende Risikomanage-
mentsysteme tragen dazu bei, Risiken proaktiv und präventiv zu steuern, so dass insbe-
sondere bestandsgefährdende Entwicklungen frühzeitig erkannt und abgewendet werden
können.
Treten Krisensituationen ein, hängt die Sicherung des Fortbestands der Gesellschaft
entscheidend davon ab, ob hinreichend Eigenkapital bzw. Liquidität vorgehalten wird,
um die resultierenden Verluste bzw. Liquiditätsengpässe abfangen zu können. Entspre-
chend ist das Bereitstellen notwendiger Risikodeckungsmassen über eine auf dem Risi-
komanagementansatz aufbauende Eigenkapital- bzw. Liquiditätsbedarfsprognose si-
cherzustellen. Nachfolgend wird gezeigt, dass mit Hilfe von auf Tabellenkalkulations-
programmen basierenden Simulationstools dieses Konzept auch bei mittelständischen
Unternehmen kostengünstig umzusetzen ist.
2. Begriffsabgrenzung und Einsatzmöglichkeiten des proaktiven Risikomanage-
ments
2.1 Definition
Aktiengesellschaften haben gem. § 91 Abs. 2 AktG ein Überwachungssystem einzurich-
ten, welches „den Fortbestand der Gesellschaft gefährdende Entwicklungen“ frühzeitig
aufzeigt. Aufgrund seiner Ausstrahlungswirkung wird ein entsprechendes System grö-
ßenunabhängig auch für alle anderen Rechtsformen gefordert.3 Bei börsennotierten Ak-
1 Vgl. Kehrel/Leker, Unternehmenskrisen, ZfO 2009 S. 200 ff. 2 Vgl. Berkau, Risiko-Controlling mit Geschäftsprozessen, in: Loos/Krcmar (Hrsg.), Architekturen und
Prozesse, 2007, S. 151 ff. 3 Vgl. Klett, Risiko- und Krisenmanagement in KMU, NWB-BB 2010 S. 174.
260
tiengesellschaften ist dessen Effektivität im Rahmen der Abschlussprüfung zu beurtei-
len (§ 317 Abs. 4 HGB).
Aus betriebswirtschaftlicher Sicht ist das Risikomanagementsystem nicht nur als Insti-
tution zur Erkennung und Abwehr von bestandsgefährdenden Entwicklungen zu verste-
hen, sondern umfasst ganzheitlich die Betrachtung aller Chancen und Risiken.4 Gleich-
wohl ist den Gefahren einer negativen Planabweichung eine besondere Aufmerksamkeit
zugrunde zu legen.
Risikomanagementsysteme, welche mit der Unternehmensplanung verknüpft sind, bil-
den die Grundlage für die frühzeitige Aufdeckung sich abzeichnender Krisensituatio-
nen.5 Hierbei wird unter Berücksichtigung externer und interner Risikofaktoren sowie
den im Unternehmen vorhandenen Deckungsmassen eine geschlossene Planrechnung
zur Ableitung der künftigen Ertrags-, Vermögens- und Finanzlage erstellt. Entsprechend
sind deren Elemente (Plan-GuV, Planbilanz und Plan-Kapitalflussrechnung) mit den
Informationen aus dem Risikomanagement- und Unternehmenssteuerungsprozess anzu-
reichern.
Die Abschätzung der künftigen Unternehmensentwicklung kann dabei mit verschiede-
nen Verfahren vorgenommen werden.6 Zunehmend kommen bei großen Unternehmen
auch EDV gestützte Monte-Carlo-Simulationen zum Einsatz, die sich durch eine hohe
Transparenz hinsichtlich der Darstellung der Unternehmenssituation auszeichnen und
sich einfach in die bereits vorhandene Planrechung integrieren lassen.7 Neben standardi-
sierten Spezialprogrammen und unternehmensindividuellen Business-Intelligence Lö-
sungen bieten Simulationstools, die als Add-Ins zu Tabellenkalkulationen genutzt wer-
den können, eine gute Einstiegsalternative. Dies macht auch die Anwendung des proak-
tiven Risikomanagements bei kleineren und mittleren Unternehmen besonders attraktiv.
4 Vgl. Gleißner, Grundlagen des Risikomanagements im Unternehmen, 2008, S. 8. 5 Vgl. Berkau, Risiko-Controlling mit Geschäftsprozessen, in: Loos/Krcmar (Hrsg.), Architekturen und
Prozesse, 2007, S. 163. 6 Vgl. bspw. Hamann/Günther, Was ist ein Planungssystem? – Ein Metamodell zur Beschreibung von
Planungssystemen als Basis für die empirische Planungsforschung, ZP 2009 S. 170. 7 Vgl. Schulten, Quo Vadis Risikomanagement?, Controlling 2010 S. 236.
261
Die kostengünstigen Softwarelösungen lassen sich einfach in die vorhandenen Plan-
rechnungen integrieren und mit den Daten aus dem Risikomanagement verbinden.8
2.2 Einsatz in der Krisen- und Insolvenzprognose
Das proaktive Risikomanagement unter Einsatz der Monte-Carlo-Simulation eignet sich
zur fortlaufenden Beurteilung der prognostizierten Finanz- und Ertragskraft eines Un-
ternehmens.9 Eine Verschlechterung der Unternehmenslage tritt dann ein, wenn sich aus
der risikobasierten Planung einer Periode ergibt, dass die Unternehmung bei unverän-
derter Fortführung ihrer Tätigkeit Einbußen bei den Erfolgs- bzw. Zahlungsstromgrößen
erwarten muss. Dies können erste Anzeichen für eine sich abzeichnende Krisensituation
sein.
Obwohl es hinsichtlich des Fortschreitens von Krisen keine starren Muster gibt, ist aus
prozessorientierter Sicht deren Verlauf in drei verschiedene Stadien aufzuteilen (vgl.
Abb. 1).10
8 Vgl. hierzu allgemein Gleißner/Romeike, Anforderungen an die Softwareunterstützung für das Risi-
komanagement, ZfCM 2005 S. 159. 9 Vgl. Gleißner/Knecht/Egretzberger/Kamarás, Simulationsbasierte Bewertung von Sanierungskopnzep-
ten: Grundlagen und Fallstudie, KSI 5/2010 S. 218. 10 Vgl. hierzu Hauschildt/Grape/Schindler, Typologien von Unternehmenskrisen im Wandel, DBW 2006
S. 13 ff.
262
gesundes Unternehmen LiquiditätskriseErfolgskriseStrategiekriseIn
solv
enzw
ahrs
chei
nlic
hke
it
niedrig
hoch Prozessdauer
Anzeichen: Verlust von Marktanteilen überaltetes Produktportfolio Substitutionsprodukte
Ursachen: unzureichende
Kundenorientierung mangelhafte Anpassung an
die Wettbewerbsentwicklung
Folgen: Konkurrenz- und Preisdruck
nimmt im steigenden MaßeEinfluss auf die Geschäftstätigkeit
Turnaround möglich?
Anzeichen: Verlust von Stammkunden Produktionsunterauslastung Kündigung Schlüsselpersonen
Ursachen: fortdauernde Strategiekrise operative Fehlentwicklungen
z.B. Qualitätsprobleme,Kostensteigerungen
Folgen: Jahresfehlbeträge mangelnde Rentabilität zunehmende
Kreditunwürdigkeit
Anzeichen: starker Umsatzrückgang (> 25%) späte Zahlung (3. Mahnung) Streichung von Kreditlinien
Ursachen: fortdauernde Erfolgskrise fehlerhafte Finanzplanung
z.B. mangelndeFristenkongruenz
Folgen: erhebliche Verengung des
finanziellen Handlungsspielraums konkrete Existenzgefährdung
des Unternehmens
gesundes Unternehmen LiquiditätskriseErfolgskriseStrategiekriseIn
solv
enzw
ahrs
chei
nlic
hke
it
niedrig
hoch Prozessdauer
Anzeichen: Verlust von Marktanteilen überaltetes Produktportfolio Substitutionsprodukte
Ursachen: unzureichende
Kundenorientierung mangelhafte Anpassung an
die Wettbewerbsentwicklung
Folgen: Konkurrenz- und Preisdruck
nimmt im steigenden MaßeEinfluss auf die Geschäftstätigkeit
Turnaround möglich?
Anzeichen: Verlust von Stammkunden Produktionsunterauslastung Kündigung Schlüsselpersonen
Ursachen: fortdauernde Strategiekrise operative Fehlentwicklungen
z.B. Qualitätsprobleme,Kostensteigerungen
Folgen: Jahresfehlbeträge mangelnde Rentabilität zunehmende
Kreditunwürdigkeit
Anzeichen: starker Umsatzrückgang (> 25%) späte Zahlung (3. Mahnung) Streichung von Kreditlinien
Ursachen: fortdauernde Erfolgskrise fehlerhafte Finanzplanung
z.B. mangelndeFristenkongruenz
Folgen: erhebliche Verengung des
finanziellen Handlungsspielraums konkrete Existenzgefährdung
des Unternehmens
Abb. 1: Prozessorientierter Krisenverlauf
Die Strategiekrise beruht häufig auf einer unzureichenden Kundenorientierung und ei-
ner ungenügenden Berücksichtigung der Interessen, die andere Interakteure des Unter-
nehmens haben. Werden die Ursachen der Krisensituation nicht bzw. nicht rechtzeitig
durch die strategische Planung identifiziert und konkrete Maßnahmen eingeleitet, folgt
die Erfolgs- und ggf. die Liquiditätskrise als logische Konsequenz.
Anders als bei der Strategiekrise werden hierbei bereits deutliche Auswirkungen auf die
Erfolgs- und Liquiditätsgrößen spürbar. Gleichzeitig sind die Steuerungsmaßnahmen
schwieriger umzusetzen (z.B. wegen Finanzschwierigkeiten aufgrund verstärkter Kre-
ditrestriktionen von Banken (Covenant-Brüche)). Liquiditätsprobleme können daher
nicht nur die Folge eines langfristigen Misserfolgs sein, sondern auch als Konsequenz
einer fehlerhaften Finanzplanung oder einer gescheiterten Kapitalbeschaffung eintreten
bzw. sich verstärken.11
11 Vgl. Bretz/Gude, Beurteilung des neuen Überschuldungsbegriffs in der InsO anhand von Bilanzinfor-
mationen, ZInsO 2010 S. 516.
263
Im Rahmen des Krisenverlaufs wächst auch die Insolvenzgefahr. Neben dem bis zum
31.12.2013 „modifizierten“ Tatbestand der Überschuldung12 (§ 19 InsO) stellen die
Zahlungsunfähigkeit (§ 17 InsO) und die drohende Zahlungsunfähigkeit (§ 18 InsO) in
der Insolvenzordnung definierte Eröffnungsgründe dar.
Überschuldung liegt bei juristischen Personen vor, wenn das Vermögen des Unterneh-
mens die bestehenden Verbindlichkeiten nicht mehr deckt und die Fortführung des Un-
ternehmens nach den Umständen überwiegend unwahrscheinlich ist.13 Zahlungsunfä-
higkeit besteht nach den Grundsätzen des BGH regelmäßig dann, wenn innerhalb von
drei Wochen mindestens zehn Prozent der fälligen Gesamtverbindlichkeiten nicht erfüllt
werden können.14 Zahlungsunfähigkeit droht, wenn „eine erhebliche Liquiditätslücke
unter Berücksichtigung der bestehenden, aber erst künftig fällig werdenden Verbind-
lichkeiten und der im entsprechenden Zeitraum verfügbaren Zahlungsmittel voraussicht-
lich eintreten wird.“15
Das durch die Risiko- und Planungsverantwortlichen durchzuführende proaktive Risi-
komanagement dient einer frühzeitigen und regelmäßigen Überwachung, ob das Fortbe-
stehen des Unternehmens gefährdet sein könnte. Bspw. kann im Rahmen der strategi-
schen ABC-Kundenanalyse auf Wahrscheinlichkeitsbasis simuliert werden, welche
Auswirkungen der Weggang eines Großkunden auf die Erfolgs- und Liquiditätslage
hätte. Ebenso gut sind die Änderungen der Rohstoffpreise und deren Auswirkungen auf
den Materialaufwand zu simulieren. Dies erscheint insbesondere dann nötig, wenn das
Unternehmen mit den Kunden Festpreisverträge abgeschlossen hat.
Sofern der periodisch durchzuführenden Planrechnung auf Basis der Monte-Carlo-
Simulation aufgrund mangelnder Deckungsmassen (Vermögen bzw. Liquidität) zu ent-
nehmen ist, dass der Bestand wegen Überschuldung oder (drohender) Zahlungsunfähig-
12 Vgl. Poertzgen, Fünf Thesen zum neuen (alten) Überschuldungsbegriff (§ 19 InsO n.F.), ZInsO 2009
S. 401 ff. 13 Vgl. Beck, Überschuldung – Alter Ansatz in neuem Umfeld, KSI 2/2009 S. 62. 14 Vgl. BGH-Urteil vom 08.10.2009 – IX ZR 173/07, ZIP 2009 S. 2254. 15 Vgl. BGH-Urteil vom 13.08.2009 – IX ZR 159/06, ZIP 2009 S. 1967.
264
keit ernsthaft gefährdet sein könnte, muss durch das Geschäftsführungsorgan die insol-
venzrechtliche Fortbestehensprognose eingeleitet werden.16
2.3 Einsatz in der rechnungslegungsbasierten Prognose
2.3.1 Fortführungsprognose
Bei der Bewertung der im Jahres- bzw. Konzernabschluss ausgewiesenen Vermögens-
gegenstände und Schulden ist grundsätzlich die Annahme der Fortführung der Unter-
nehmenstätigkeit maßgeblich. Falls dies nicht zutrifft, ist die Bewertung unter Liquida-
tionsgesichtspunkten durchzuführen. Sofern ein Anhang zu erstellen ist, sind entspre-
chende Zusatzangaben erforderlich, wobei für kleine und mittlere Unternehmen Erleich-
terungen gelten.17
Im handelsrechtlichen Sinne kann gem. § 252 Abs. 1 Nr. 2 HGB von der Fortführung
des Unternehmens bzw. über § 298 Abs. 1 HGB des Konzerns ausgegangen werden,
„sofern dem nicht tatsächliche oder rechtliche Gegebenheiten entgegenstehen“.
Als rechtlicher Aspekt gilt insbesondere der Eintritt eines gesetzlichen Insolvenztatbe-
stands.18 Insofern fließt die insolvenzrechtliche Fortbestehensprognose mit ihrem Er-
gebnis in die handelsrechtliche Fortführungsprognose ein. Des Weiteren fallen darunter
auch Sachverhalte, die unabhängig einer Insolvenz die Fortführung des Unternehmens
unwahrscheinlich machen (z.B. Gewerbeauflagen, Vertriebsrestriktionen aufgrund von
Außenhandelsvorschriften).19 Tatsächliche Gegebenheiten deuten auf das Vorliegen
bestandsgefährdender Risiken hin. Der IDW nennt hier bspw. Prolongationsschwierig-
keiten wichtiger Kreditlinien und operationelle Risiken wie Produktionsausfälle durch
höhere Gewalt (IDW PS 270, Tz. 11). Entsprechend ist die Unternehmensleitung unter
Einbindung der Risikoverantwortlichen angehalten eine Prognose zu erstellen, die eine
mittelfristige Zahlungs- bzw. Überlebensfähigkeit gegenüber Anteilseignern und Gläu-
16 Vgl. hierzu Groß, Zur Beurteilung der „handelsrechtlichen Fortführungsprognose“ durch den Ab-
schlussprüfer, WPg 2010 S. 124 ff. 17 Vgl. hierzu Adam/Quick, Das Going-Concern-Prinzip – Konzeption und praktische Implikationen,
BFuP 2010 S. 249. 18 Vgl. Ellrott/Förschle/Kozikowski/Winkeljohann, Beck’scher Bilanzkommentar, 7. Aufl. 2010, § 252,
Tz. 15. 19 Vgl. Groß, Zur Beurteilung der „handelsrechtlichen Fortführungsprognose“ durch den Abschlussprü-
fer, WPg 2010 S. 123.
265
bigern versichern kann.20 Grundsätzlich sieht das IDW hierfür einen Prognosezeitraum
von mindestens zwölf Monaten ab dem Abschlussstichtag vor (IDW PS 270, Tz. 20). In
der Rechnungslegung nach IFRS ist die Going-Concern-Prämisse in ähnlicher Weise in
den IAS 1.25-26 i. V. mit IAS 10.14-16 verankert.21
Wie bei der insolvenzrechtlichen Abschätzung dient auch hier das proaktive Risikoma-
nagement zur frühzeitigen Einschätzung, ob Risikokonzentrationen eintreten könnten,
die der künftigen Fortführung des Unternehmens entgegenstehen und damit der Going-
Concern-Prämisse den Boden entziehen. Entsprechend hat die Geschäftsführung eine
handelsrechtliche Fortführungsprognose (bspw. durch Rückgriff auf ein schlüssiges
Sanierungskonzept i. S. des IDW S 6) einzuleiten, falls das Ergebnis der Simulation auf
solche Anzeichen hindeutet.22
2.3.2 Externe Risiko- und Prognoseberichterstattung
Des Weiteren kann das proaktive Risikomanagement im Rahmen der externen Lagebe-
richterstattung genutzt werden. Neben großen haben auch mittelgroße Kapitalgesell-
schaften sowie gleichgestellte Personenhandelsgesellschaften im Sinne des § 264a HGB
Auskunft über die künftige Entwicklung unter Einbezug der wesentlichen Chancen und
Risiken zu geben (§ 264 Abs. 1 HGB i. V. mit § 289 Abs. 1 Satz 4 HGB). Entsprechen-
de Vorschriften finden sich für den Konzernabschluss (§ 290 Abs. 1 HGB i. V. mit
§ 315 Abs. 1 Satz 5 HGB).23 Im Rahmen der Konzernrechnungslegung werden die Be-
stimmungen zur Risiko- und Prognoseberichterstattung in den beiden Rechnungsle-
gungsstandards DRS 5 und 15 näher konkretisiert. Einzelunternehmen können diese
Standards freiwillig beachten.24
20 Vgl. Hirte/Knof/Mock, Überschuldung und Finanzmarktstabilisierungsgesetz, ZInsO 2008 S. 1217 ff. 21 Vgl. hierzu Adam/Quick, Das Going-Concern-Prinzip – Konzeption und praktische Implikationen,
BFuP 2010 S. 245. 22 Grundsätzlich können auch Sanierungskonzepte unter Zuhilfenahme simulationsbasierter Verfahren
erstellt werden, zum Mehrwert dieser Vorgehensweise vgl. Gleißner//Knecht/Egretzberger/Kamarás, Simulationsbasierte Bewertung von Sanierungskopnzepten: Grundlagen und Fallstudie, KSI 5/2010 S. 217 ff.
23 Vgl. Freidank/Steinmeyer, Betriebliches Reporting als Basis für die Erstellung und Prüfung des Lage-berichts, Controlling 2009 S. 249 ff.
24 Vgl. hierzu Kaya, Verminderung der Aussagekraft des Lageberichts mittelständischer Unternehmen, StuB 2010 S. 484.
266
Demzufolge ist auf eine rechtliche oder wirtschaftliche Bestandsgefährdung hinzuwei-
sen (DRS 5.11), wobei grundsätzlich ein einjähriger Prognosezeitraum heranzuziehen
ist (DRS 5.24). Eine Darstellung von Interdependenzen zwischen einzelnen Risiken ist
wünschenswert (DRS 5.25). Die Aggregation von Risiken wird empfohlen, sofern dies
nach verlässlichen Methoden – wie der Monte-Carlo-Simulation – wirtschaftlich ver-
tretbar ist (DRS 5.20).
Das System und die Unterlagen des proaktiven Risikomanagements dienen zudem als
Nachweis und Dokumentation im Rahmen der Jahres- und Konzernabschlussprüfung,
um zu gewährleisten, dass die Chancen und (bestandsgefährdenden) Risiken der zu-
künftigen Entwicklung zutreffend dargestellt sind (§ 317 Abs. 2 Satz 2 HGB). Diesbe-
züglichen Einschränkungen im Bestätigungsvermerk (§ 322 Abs. 2 Satz 3 und Abs. 6
Satz 2 HGB), der neben großen auch bei mittelgroßen Kapitalgesellschaften publizitäts-
pflichtig ist, und deren negativen Folgen können so entgegengewirkt werden.
3. Einbettung der Monte-Carlo-Simulation in das proaktive Risikomanagement
3.1 Implementierung des proaktiven Risikomanagementsystems
Die Prozessschritte des proaktiven Risikomanagements bestehen – wie bereits bei klas-
sischen Risikomanagementprozessen – aus der Risikoidentifikation, der Risikobewer-
tung und -aggregation, der Risikosteuerung sowie dem Risikoreporting (vgl. Abb. 2).25
25 Vgl. Gleißner, Risikomanagement, 2005, S. 114.
267
Implementierungdes Risiko-
managementsystems
Risikosteuerungund
Risikoreporting
Risikobewertung und -aggregation
Risiko-identifikation
Monte-Carlo-Simulation
Implementierungdes Risiko-
managementsystems
Risikosteuerungund
Risikoreporting
Risikobewertung und -aggregation
Risiko-identifikation
Monte-Carlo-Simulation
Abb. 2: Proaktives Risikomanagement
Wie in Kap. 2.2. 1 dargestellt, bildet die proaktive Variante die Schnittstelle zwischen
der Unternehmensplanung und dem klassischem Risikomanagement. Durch die Ver-
wendung von Bandbreiten anstelle von einwertigen Zahlen können zugleich Rück-
schlüsse auf die Insolvenzwahrscheinlichkeit bzw. – bei mehrperiodischer Betrachtung
– auf den Unternehmenswert gezogen werden. Die Beurteilung des vorhandenen Risi-
kopotentials wird dabei nicht isoliert betrachtet, sondern unmittelbar mit den künftigen
Ertrags- und Liquiditätsmöglichkeiten sowie den verfügbaren Deckungsmassen (Eigen-
kapital und Liquidität) verbunden.26 Entsprechend sind die einzelnen Prozessschritte der
klassischen Variante um die speziellen Komponenten des proaktiven Risikomanage-
ments zu erweitern.
3.2 Risikoidentifikation
Im Rahmen der Risikoidentifikation werden zunächst alle Gefahrenquellen, Schadens-
ursachen und Störpotentiale vollständig, strukturiert und detailliert erfasst. Um die Ge-
fahr der Nichterfassung und daraus folgenden Nichtquantifizierung wesentlicher Risi-
ken zu vermeiden, werden unterschiedliche Verfahren (z.B. Risikochecklisten, Besich-
26 Vgl. Albrecht, Auf dem Weg zu einem holistischen Risikomanagement?, Mannheimer Manuskripte
zur Risikotheorie, Portfolio Management und Versicherungswirtschaft Nr. 110, 1998, S. 1, abrufbar unter http://insurance.bwl.uni-mannheim.de/download/extern/mm/mm110.pdf (10.08.2010).
268
tigungen, Interviews, Workshops, Delphi-Analysen, etc.) eingesetzt, die von den Risi-
koverantwortlichen zur Analyse der Risikosachverhalte heranzuziehen sind.27 Die so
ermittelten Ergebnisse sind in einem Risikoinventar festzuhalten. Für das proaktive Ri-
sikomanagement müssen dabei insbesondere auch wesentliche Korrelationen und Ursa-
che-Wirkungs-Beziehungen zwischen den tragenden Risiken identifiziert werden. Dar-
über hinaus ist anzugeben, welche Inputvariable(n) der Planrechnung durch das jeweili-
ge Risiko betroffen ist bzw. sind.28
3.3 Risikobewertung
Um die Erfassung von Risiko- und Chancenpotentialen im Planungsmodell zu ermögli-
chen, sind die identifizierten Risiken anschließend zu bewerten. Quantifiziert werden
müssen insbesondere die Komponenten Planungsmodells, die sowohl ein beträchtliches
Schadenspotential als auch eine hohe Eintrittswahrscheinlichkeit bzw. eine erhebliche
Prognoseunsicherheit im Sinne einer Schwankungsbandbreite besitzen.29 Letzteres stellt
die Abweichungsmöglichkeit vom erwarteten Wert einer Planungsgröße (z.B. Rohstoff-
preise, Wechselkurse) im positiven wie im negativen Sinne dar.
Um die Transparenz und Wirtschaftlichkeit des proaktiven Risikomanagements zu wah-
ren, ist die nähere Quantifizierung bzw. Stochastisierung auf die wichtigsten der im
Identifikationsprozess aufgedeckten Wert- und Risikotreiber zu beschränken (z.B. Roh-
stoffpreise, Absatzmengen).30 Die risikobehafteten Inputfaktoren sind anschließend im
Tabellenkalkulationsprogramm mit Wahrscheinlichkeitsverteilungen zu hinterlegen.31
Während die Add-Ins der unteren Preiskategorie (vgl. Tab. 1) auf Basis einiger Stan-
dardverteilungen (Gleichverteilung, Normalverteilung, etc.) nur einfache Simulationen
des Planungsmodells ohne weitergehende Supportfunktionen ermöglichen, stellen die
27 Zu planungsrelevanten Informationsquellen vgl. bspw. Depré/Dobler, Einsatz der betrieblichen Plan-
rechnung in der Insolvenzverwaltung im Kontext des IDW S 6, KSI 2/2010 S. 57 ff. 28 Vgl. Henselmann/Klein, Monte-Carlo-Simulation in der Due Diligence, M&A Review 2010 S. 360. 29 Vgl. Klett, Risiko- und Krisenmanagement in KMU, NWB-BB 2010 S. 178. 30 Vgl. Berkau, Risiko-Controlling mit Geschäftsprozessen, in: Loos/Krcmar (Hrsg.), Architekturen und
Prozesse, 2007, S. 160. 31 Zur Vorgehensweise vgl. bspw. Bleuel, Monte-Carlo-Analysen im Risikomanagement mittels Soft-
ware-Erweiterungen zu MS-Excel dargestellt am Beispiel der Unternehmensplanung, Controlling 2006 S. 371 ff.
269
Softwarelösungen der oberen Preisklasse hierzu umfangreiche Zusatzfeatures zur Ver-
fügung. Exemplarisch seien genannt:32
Sensitivitätsanalysen zur Aufdeckung der wichtigsten Wert- und Risikotreiber,
eine Vielzahl benutzerdefinierter Verteilungen und Spezialverteilungen (z.B. PERT-
Verteilung, Weibull-Verteilung, Poisson-Verteilung, etc.),
Funktionen zur Ableitung von Verteilungen aus historischen Daten (z.B. Rohstoff-
preise),
integrierte Bibliotheken zur Ablage, zum Austausch und zur Wiederverwendung
von Verteilungen und historischen Datensammlungen (z.B. Rohstoffpreise, Wech-
selkurse, Simulationsergebnisse des Risikomanagements von Vorperioden zum Soll-
Ist Vergleich, etc.),
umfangreiches Supportmaterial (animierte Planungsrechnungen, Spreadsheet basier-
te Online-Präsentationen als Lernhilfe, ausführliche Benutzerhandbücher, etc.).
@RISK 5.5
Professional
Crystal Ball 11.1
Basic
ModelRisk 3.0
Professional
Risk Solver V9.6
RiskSim 2.41
XLSim 3.2
Hersteller Palisade Oracle Vose
Software Frontline Systems
Decision Toolworks
Analycorp
Preis/ Leistung
obere Preiskategorie (je nach Ausstattung 900 € bis 1.200 €)
umfangreiches Leistungspotential
untere Preiskategorie (< 200 €)
nur einfache Simulationen
Tab. 1: Beispiele für Excel basierte Tools zur Monte-Carlo-Simulation
Besonders vorteilhaft ist des Weiteren das statistisch richtige Zusammenführen unter-
schiedlicher Verteilungen. Werden bspw. verschiedene Prognosen für einen Inputfaktor
abgegeben, so können diese zu einer „gemeinsamen“ Wahrscheinlichkeitsverteilung
aggregiert und ins Excel Modell implementiert werden. Ebenso gut können unterschied-
32 Vgl. hierzu ausführlich Klein, Add-In basierte Softwaretools zur stochastischen Unternehmensbewer-
tung?, Working Paper in Accounting Auditing Valuation Nr. 7, Friedrich-Alexander-Universität Er-langen-Nürnberg, 2010, abrufbar unter http://www.econstor.eu/dspace/bitstream/10419/36702/1/631127364.pdf (12.09.2010).
270
liche Verteilungen von Teilgrößen einer Position der Planrechnung (z.B. Absatzmenge
und Absatzpreise zur Ermittlung der Umsatzerlöse) zusammengeführt werden. Darüber
hinaus bieten viele Add-Ins der oberen Preiskategorie zusätzliche Features, um Exper-
tenworkshops im Rahmen der Ableitung von Verteilungen graphisch zu unterstützen.33
Exemplarisch seien hier Workshops und Delphi-Analysen
mit Vertriebsleitern und/oder Außendienstmitarbeitern zur mehrwertigen Planung
der künftigen Absatzzahlen (Planung der Umsatzerlöse),
mit Produktionsleitern in Bezug auf anstehende Großreparaturen und deren Kosten
(mehrwertige Planung der (sonstigen) Aufwendungen),
Gespräche mit Abteilungs- und Produktionsleitern zu Investitionsbedürfnissen und
Bandbreiten erzielbarer Veräußerungserlöse bei nicht betriebsnotwendigen Kompo-
nenten (Planung des Anlagevermögens, der liquiden Mittel und der (sonstigen) be-
trieblichen Erträge)
genannt.
3.4 Risikoaggregation
Nachdem die unsicheren Inputgrößen mit Verteilungen hinterlegt wurden, kann die ei-
gentliche Risikoaggregation mit Hilfe der Monte-Carlo-Simulation durchgeführt wer-
den.
Dies geschieht durch eine multiple Berechnung der interessierenden Zielgrößen (z.B.
EBIT, freier Cashflow, Jahresüberschuss) mit Hilfe des Add-In Tools. Durch eine hin-
reichend häufige Iteration der wesentlichen Risikotreiber des Planungsmodells entsteht
so eine Ergebnis- bzw. Zahlungsstromverteilung, die das Gesamtrisiko des Unterneh-
mens in Form einer möglichen Abweichung vom erwarteten Ergebnis bzw. der erwarte-
ten Liquidität charakterisiert (vgl. Abb. 3).
Die Softwaretools der oberen Preiskategorie bieten optional die Möglichkeit, Korrelati-
onen und intertemporale Abhängigkeiten zwischen den einzelnen Risikofaktoren zu
berücksichtigen. Diese tragen dazu bei, dass unmögliche Kombinationen bei der Zie-
hung der Zufallsgrößen aus den einzelnen, hinterlegten Verteilungsfunktionen (z.B.
33 Vgl. Henselmann/Klein, Monte-Carlo-Simulation in der Due Diligence, M&A Review 2010 S. 361.
271
gestiegene Absatzmengen in Verbindung mit geringeren variablen Produktionskosten)
keine Berücksichtigung finden.
Eingabedaten (Inputvariablen)
X1 = …
X2 = …
X3 = …
X4 = …
Ergebnishistogrammz.B. EBIT, Cashflow, Jahresüberschuss
Wahrscheinlichkeitsverteilungender Inputfaktoren
des Planungsmodells z.B.TabellenkalkulationPlanungsmodell
Gleichverteilung
Dreiecksverteilung
PERT-Verteilung
Monte-Carlo-Simulation
Bestehen Korrelationenzwischen den Inputfaktoren?
Eingabedaten (Inputvariablen)
X1 = …
X2 = …
X3 = …
X4 = …
Ergebnishistogrammz.B. EBIT, Cashflow, Jahresüberschuss
Wahrscheinlichkeitsverteilungender Inputfaktoren
des Planungsmodells z.B.TabellenkalkulationPlanungsmodell
Gleichverteilung
Dreiecksverteilung
PERT-Verteilung
Monte-Carlo-Simulation
Bestehen Korrelationenzwischen den Inputfaktoren?
Abb. 3: Prozess der Risikoaggregation auf Basis der Monte-Carlo-Simulation
3.5 Risikosteuerung und Risikoreporting
Mit der Ergebnis- bzw. Zahlungsstromverteilung und der damit verbundenen Gesamtri-
sikoposition des Unternehmens stehen der Risikosteuerung aggregierte, mehrwertige
Informationen zur Verfügung. Die Add-In basierten Softwaretools bieten hier zahlreiche
Visualisierungs- und statistische Darstellungsmöglichkeiten an, um das Rohmaterial
sowie die daraus generierte Prognose im Rahmen des internen Risikoreportings an-
schaulich zu präsentieren. Je nach Ergebnis und vorhandenen Risikodeckungsmassen ist
272
im Zuge der Risikosteuerung einerseits über gezielte Maßnahmen zu beraten (Risiko-
vermeidung, Risikoverminderung, Risikoabwälzung, etc.).34
Andererseits bilden die Ergebnisse die Grundlage, um im Rahmen des externen Risiko-
reportings eine Gesamtaussage hinsichtlich der zukünftigen Entwicklung im Lagebe-
richt treffen zu können. Insbesondere darüber, ob die durch die Monte-Carlo-Simulation
aggregierten Risiken den Bestand des Unternehmens gefährden.
4. Krisen- und Insolvenzanalyse im proaktiven Risikomanagement
4.1 Eigenkapital- bzw. Liquiditätsbedarf als Maß für das Risikopotential
Um prognostizieren zu können, ob im Planungszeitraum genügend Eigenkapital bzw.
Liquidität vorgehalten wird, um bestimmte Ergebnis- bzw. Liquiditätssituationen schad-
los zu überstehen, müssen aus den Ergebnissen der Monte-Carlo-Simulation sog. Risi-
komaße bestimmt werden. Diese überführen das aggregierte Risiko zurück in einen de-
terministischen Wert.
Als Risikomaße eignen sich bspw. der Eigenkapital- und Liquiditätsbedarf. Ersterer
ermittelt sich als Abweichung zum Erwartungswert einer erfolgsbasierten Zielgröße auf
Basis eines vorher festgelegten (1-α)-Quantils (z.B. als absoluter EBIT-at-Risk (EBI-
TaR)).35 Der Liquiditätsbedarf errechnet sich analog auf Basis einer Zahlungsstromgrö-
ße (z.B. als absoluter Cashflow-at-Risk (CFaR)).36 Das dabei in Frage kommende Quan-
til (sog. Vertrauens- oder Konfidenzniveau) wird entsprechend der im Risikomanage-
mentprozess angestrebten Sicherheit durch die Risikoverantwortlichen unternehmensin-
dividuell gewählt. So kann bspw. in Abhängigkeit der Deckungsmasse ein Vertrauens-
niveau von α=60% als Normalszenario, von α=75% als Krisenszenario und von α=99%
als Insolvenzszenario herangezogen werden:
Das Normalszenario beschreibt eine Cashflow- bzw. Erfolgsentwicklung, die „nor-
malen“ Umsatz- und Aufwandsschwankungen im Planungsmodell ursächlich ist und
34 Vgl. Eisolt, Erstellung von Sanierungskonzepten nach dem neuen IDW S 6, BB 2010 S. 428 ff. 35 Vgl. Gleißner, Risikomaße und Bewertung, Risiko Manager 13/2006 S. 18. 36 Vgl. Berkau/Arnsfeld/Frey, Prozessorientiertes Risiko-Controlling für den Mittelstand, Controlling-
Berater 2006 S. 80.
273
mit einer relativ hohen Wahrscheinlichkeit als negative Abweichung zum Erwar-
tungswert eintritt.
Das Krisenszenario betrachtet eine Entwicklung, die in einer Existenzgefährdung
mündet und für die Branche des Unternehmens ein ungewöhnliches Resultat dar-
stellt.
Das Insolvenzszenario beschreibt hingegen den Worst-Case, bei welchem die Risi-
ken in der Weise eintreten, dass die Fortführung bzw. das Fortbestehen ernsthaft an-
zuzweifeln ist.37
-360.000 €-270.000 €
-180.000 €-90.000 €-450.000 €
0 €90.000 €
180.000 €270.000 €
360.000 €450.000 €
Erwartungswert= +58.336 €
EBITaR99%
= -248.053 €
EBITaR75%
= -31.352 €
EBITaR60%
= +25.756 €
1 % 25 % 40 %
relativer EBITaR99%
= │-306.389│ €
Ergebnisverteilung Planperiode 2010
-360.000 €-270.000 €
-180.000 €-90.000 €-450.000 €
0 €90.000 €
180.000 €270.000 €
360.000 €450.000 €
-360.000 €-270.000 €
-180.000 €-90.000 €-450.000 €
0 €90.000 €
180.000 €270.000 €
360.000 €450.000 €
Erwartungswert= +58.336 €
EBITaR99%
= -248.053 €
EBITaR75%
= -31.352 €
EBITaR60%
= +25.756 €
1 % 25 % 40 %
relativer EBITaR99%
= │-306.389│ €
Ergebnisverteilung Planperiode 2010
Abb. 4: EBIT-at-Risk (EBITaR) zur Messung des Risikopotentials
Abb. 4 stellt einen möglichen, aus der simulierten Planrechnung resultierenden Eigen-
kapitalbedarf für die drei vordefinierten Szenarien graphisch dar. Demnach liegt die
geplante Zielgröße (absoluter EBITaR) bei einem Erwartungswert von +58.336 € im
37 Vgl. Lister, Konzeptionelle Basis des wertorientierten Risiko-Controllings, in: Schierenbeck (Hrsg.),
Risk Controlling in der Praxis, 2. Aufl. 2006, S. 320.
274
Insolvenzszenario (α=99%) bei -248.053 €, im Krisenszenario bei -31.352 €. Im Insol-
venzszenario würde sich damit eine negative Abweichung in Höhe von 306.389 € im
Vergleich zum Erwartungswert ergeben (sog. relativer EBITaR). Im Normalszenario
(α=60%) beträgt der EBIT +25.756 €, wobei nur in 40% aller simulierten Fälle ein nied-
rigerer EBIT zu erwarten ist.
4.2 Abgleich von Risikopotential und Risikodeckungsmasse
Das mittels der Monte-Carlo-Simulation ermittelte Risikopotential der jeweiligen Sze-
narien ist abschließend den im Planungszeitraum verfügbaren Risikodeckungsmassen
des Unternehmens gegenüberzustellen (vgl. Tab. 2).38
aggregiertes
Risikopotential ≤ Risikodeckungsmassen
Normalszenario CFaR60%, EBITaR60% ≤ Risikodeckungsmassen
erster Klasse
Krisenszenario CFaR75%, EBITaR75% ≤ Risikodeckungsmassen
erster und zweiter Klasse
Insolvenzszenario CFaR99%, EBITaR99% ≤ Risikodeckungsmassen erster bis dritter Klasse
Tab. 2: Gegenüberstellung von simulationsbasierten Risikopotential und Risikodeckungsmassen
Entsprechend dem eingegangenen Risikopotential ist die Ausstattung mit Eigenkapital
bzw. mit entsprechender Liquidität im proaktiven Risikomanagement so zu gestalten,
dass die zu erreichenden Ziele beim jeweils festgelegten Vertrauensniveau tatsächlich
erfüllt werden. Ist dies der Fall, ist das Unternehmen gegen Risiken mit der vorgegebe-
nen Wahrscheinlichkeit abgesichert. Bei einer Unterdeckung müssen im Rahmen der
strategischen und operativen Risiko- bzw. Unternehmenssteuerung rechtzeitig Steue-
rungsmaßnahmen zur Vermeidung, Minderung oder Überwälzung der identifizierten
Risiken eingeleitet werden (z.B. Abstoßen von Geschäftsbereichen, Make-or-Buy Ent-
scheidungen überdenken, etc.).
38 Vgl. Gleißner, Unternehmenswert, Rating und Risiko, WPg 2010 S. 741.
275
Bei der Risikoeinschätzung empfiehlt es sich, den Risikopotentialen der einzelnen Sze-
narien entsprechende Risikodeckungsmassen zuzuordnen.39 Hierunter fallen hinsichtlich
der Liquiditätsplanung bspw.
im Falle des Normalszenarios jederzeit verfügbare Bank- und Kassenbestände (Ri-
sikodeckungsmasse erster Klasse),
im Falle des Krisenszenarios zusätzlich vorhandene Kreditlinien (Risikodeckungs-
masse zweiter Klasse) sowie
im Falle des Insolvenzszenarios zusätzlich Möglichkeiten zur Neukreditaufnahme
bzw. Möglichkeiten, Vermögenswerte schnell zu liquidieren (Risikodeckungsmasse
dritter Klasse).
Entsprechend gilt dies für den Eigenkapitalbedarf, wobei hier bspw. bilanzielle Ge-
winnvorträge (erste Klasse), die stillen Reserven (zweite Klasse) und ggf. die Gewinn-
bzw. frei verfügbaren Kapitalrücklagen (dritte Klasse) zu subsumieren wären. Das pro-
aktive Risikomanagement ist daher auch bei der Prognose zukünftiger Risikode-
ckungsmassen besonders gefordert. Insbesondere bei Aufstellung der Planbilanz ist ne-
ben der prognostizierten eigenen Situation auch das Branchen- und gesamtwirtschaftli-
che Umfeld dynamisch zu analysieren. So hat die jüngste Finanzkrise gezeigt, dass
Neukreditvergaben bzw. Prolongationen von Kreditlinien bei Banken oder die Bereit-
schaft von Private Equity Firmen, Eigenkapital bereitzustellen, in Krisenzeiten allge-
mein stark sinken. Dies gilt insbesondere auch für mittelständische Unternehmen.
Zugleich bestehen erhöhte Risiken, in wirtschaftlich schwierigen Zeiten zur Hebung
stiller Reserven nicht betriebsnotwendiges Kapital zu veräußern bzw. Liquidität zu ge-
nerieren, da die Bereitschaft zu Investitionen und damit der potentielle Abnehmerkreis
sinkt. Zudem sind die Kunden des Unternehmens in gesamtwirtschaftlichen Krisensitua-
tionen selbst erhöhten Ausfallrisiken ausgesetzt.
39 Vgl. bspw. Weber/Weißenberger/Liekweg, Risk Tracking and Reporting, 1999, S. 17.
276
5. Limitationen
Die Vorteile der Monte-Carlo-Simulation dürfen nicht darüber hinweg täuschen, dass
beim Einsatz des proaktiven Risikomanagements auch einige Limitationen zu beachten
und nicht immer vollständig zu überwinden sind.
So ist für eine erfolgreiche Umsetzung des Konzepts ein gewisses probabilistisches
Grundverständnis insbesondere bei mittelständischen Unternehmen erforderlich. Um
zukünftige Entscheidungsalternativen einbeziehen zu können, sind weitere Methoden
wie bspw. die flexible Planung nötig.40 Die Integration von mehrperiodigen Entschei-
dungsproblemen bzw. Strategiealternativen unter Risiko setzt aber viele, meist subjekti-
ve Wahrscheinlichkeitsschätzungen voraus.
Des Weiteren ist zu beachten, dass die i.d.R. auf Erfahrungswerten und vergangenheits-
basierten Daten zu schätzenden Verteilungen nicht unbedingt mit der realen Risikositua-
tion übereinstimmen müssen. Auch dürfen die Restrisiken aus der unvollständigen Risi-
kobewertung nicht übersehen werden. Problematisch ist die Tatsache, dass sich viele
Risiken - die außerhalb der Beherrschbarkeit des Unternehmens liegen - nicht oder nur
schwer quantifizieren lassen, wie z.B.
das Risiko eines Imageverlustes,
die Gefahr des Markteintritts eines zusätzlichen Wettbewerbers oder
der „Brain-Drain“ von Vertriebsprofis bei Insolvenzgefahr.
Obwohl grundsätzlich alle Risiken monetär zu bewerten sind, ergibt sich schnell die
Gefahr einer subjektiven „Pseudo-Genauigkeit“, die auch das proaktive Risikomanage-
ment i.S. einer Monte-Carlo-Simulation nicht vollständig lösen kann.
6. Zusammenfassung und Ausblick
Mit Hilfe des proaktiven Risikomanagementansatzes, welcher auf einer verteilungsba-
sierten Risikobewertung und -aggregation beruht, lassen sich frühzeitige Prognosen für
die künftige Risikosituation eines Unternehmens ableiten. Die Verknüpfung von Pla-
nung und Risikoinformationen bietet die Möglichkeit, einen „risikogerechten Eigenka-
40 Vgl. hierzu bspw. Kehrel/Schmitting, Jenseits der Grenzen der klassischen Investitionsrechnung: Integ-
ration von Vollständigen Finanzplänen, flexibler Planung und Simulation, ZP 2008 S. 59 ff.
277
pital- und Liquiditätsbedarf“ explizit zu berechnen. Durch den Abgleich mit den ver-
fügbaren finanziellen Ressourcen bzw. liquiden Mittel können so auch bei mittelständi-
schen Unternehmen Krisen- und Insolvenzprognosen für die Verwendung in der Rech-
nungslegung (Beurteilung ob eine Fortführungsprognose erforderlich ist, Risikopublizi-
tät) und zur Vermeidung der Insolvenzverschleppung (Beurteilung ob eine Fortbeste-
hungsprognose erforderlich ist) auf Basis herkömmlicher Tabellenkalkulationspro-
gramme erstellt werden.
Den Limitationen der Monte-Carlo-Simulation stehen weitreichende Einblicksmöglich-
keiten in die Risikostruktur eines Unternehmens gegenüber. Zugleich kann das proakti-
ve System auch dazu genutzt werden, Planszenarien für die wesentlichen Finanzkenn-
zahlen aufzuzeigen, die neben der Insolvenzwahrscheinlichkeit das zukünftige Kreditra-
ting bestimmen. Entsprechende Auswirkungen ergeben sich hieraus auf die Fremdkapi-
talkosten und -finanzierung.41 Auch mittelständische Unternehmen sollten daher dem
proaktiven Risikomanagement in Zukunft verstärkte Aufmerksamkeit schenken.
41 Vgl. bspw. Gleißner, Unternehmenswert, Rating und Risiko, WPg 2010 S. 737 ff.
278