WiWi Gast schrieb am 24.08.2019:
Nicht der TE hier, aber Multiples sind ja auch eigentlich eine Regression mit fixiertem Intercept. Man kann es so vorstellen, Multiples sind eine lineare Regression, die einfach schlecht gemacht wurde. Die Ergebnisse von der normalen Regression wären somit auf jeden Fall schon mal aussagekräftiger als die Multiples an sich.
Könnt ihr das ein bisschen näher erläutern? Aus meiner Sicht ist ein Multiple beim besten Willen keine Regression, schließlich kannst du mit einem einzigen Comparable (Vergleichswert) den Wert deines Zielunternehmens ermitteln. Bei einer Regression brauchst du hingegen eine viel größere Grundgesamtheit an verlässlichen Daten. Was sind denn in dem Fall die bestimmenden und zu bestimmende Variable?
Multiples funktionieren prinzipiell so:
"Zur Ermittlung des Multiplikators (M) werden Kennzahlenvergleiche mit anderen Unternehmen, der sogenannten Peer Group, durchgeführt. Dabei sollte es sich um ähnliche Unternehmen handeln. Da kein Unternehmen dem anderen gleicht, werden durch die Verwendung mehrerer Vergleichsobjekte zufallsbedingte Ausreißer und unternehmensspezifische Besonderheiten kompensiert"
- Investition und Finanzierung, Jörg Wöltje, Haufe Verlag.
Somit ist auch zum Ermitteln eines Multiples eine Stichprobe von einer bestimmten größe notwendig um eine bestimmte Güte (R^2) zu erreichen.
Stell' es Dir so vor: Beim Multiple hast du die abhängige Variable (Y) des Marktwerts des Unternehmens und die unabhängige Variable (X) welche eine beliebige Finanzkennzahl eines Unternehmens ist (z.B. P/E-Ratio).
Jetzt ermittelst Du einfach nur den Durchschnitt der Multiples der einzelnen Unternehmen und stellst dies in Relation zum druchschnittlichen Firmenwert.
Wenn Du das graphisch auf ein zweidimensionales Koordinatensystem plottest (Y-Achse = Y und X-Achse = X) dann bekommst Du eine gerade welche durch den Ursprung und den Punkt der beide Durchschnitte verbindet läuft. (Y = m*X)
Eine lineare Funktion hat eine generelle Form Y = m*X + b. Es folgt also, dass ein Multipleverfahren einer Linearen Regression ähnelt, bloß dass b per definition Null gleich gesetzt wird.
Stell Dir einfach eine Punktewolke vor in genanntem Koordinatensystem und zieh einmal die Gerade Y = m * X abbildet und einmal eine gerade Y = n * X +b (n, weil n ungleich m wenn b ungleich 0) welche durch eine lineare Regression ermittelt wurde.
Was denkst Du welche Dir die besseren Ergebnisse liefert?
Ich würde Dir gerne ein Bild aufmalen, aber leider kann ich das hier nicht hochladen und eine schnelle Googlesuche war auch nicht sonderlich erfolgreich :-)
antworten