Hier geht es um eine kritische wissenschaftstheoretische Betrachtung: Was ist ein Modell? ...in der Ökonomie? Welche Voraussetzungen werden gemacht? Theorien der Preisbildung beruhen auf Modellen. Daher wird hier zunächst die Bedeutung von Modellen generell, später das Standard-Modell der Preisbildung für beliebige Güter dargestellt. Bis auf wenige Ausnahmen entstammen alle hier dargestellten Gedanken und Betrachtungen der Literatur und können dort nachgelesen werden. Die Wiedergabe algebraischer und mathematischer Zusammenhänge ist hier auf das unbedingt Notwendige beschränkt.

nach oben Sinn und Glaubwürdigkeit von Modellen

Modelle verwenden Analogien. Man versucht, Zusammenhänge in einem Gebiet, das man noch nicht so gut verstanden hat (hier als Realität bezeichnet), dass man dort Prognosen abgeben kann, dadurch zu finden, dass man bekannte Erfahrungen oder Zusammenhänge aus einem anderen Gebiet (der Modellrealität) verwendet und hofft, dass diese im neuen Gebiet analog gelten. Wenn das gelingt und man damit bessere prognostizieren kann, hat man ein Modell gefunden, mit dem man die Realität besser versteht.

Ein Modell soll die Effekte, die in der Realität auftreten (können), möglichst gut wiedergeben. Der Vorteil guter Modelle ist, dass man Ergebnisse vieler Experimente oder Parameterkonstellationen mit hinreichender Genauigkeit vorhersagen kann. Damit ein Modell gut ist, müssen die Prämissen unter denen es abgeleitet wird, realitätsnah sein und die Modellergebnisse müssen die Realität - zumindest annäherungsweise wiedergeben. Auch soll es keine "absurden Ergebnisse" liefern.

Modelle vernachlässigen bestimmte Zusammenhänge oder schließen sie durch Prämissen aus, damit man sich auf die als wesentlich betrachteten Zusammenhänge konzentrieren kann. Dies ist notwendig, um die Modelle (zunächst) überschaubar und die Anzahl seiner Parameter möglichst klein zu halten. Mit diesen kleinen Modellen werden zunächst Experimente gemacht oder Realitätsabschnitte herausgesucht, in denen die Prämissen - zumindest näherungsweise - gelten, und dann geprüft, ob das Modell die Realität hinreichend gut abbildet (Validierung). Mit jeder dieser erfolgreichen Überprüfung an empirischen Daten (der Vergangenheit) gewinnt das Modell das Vertrauen der Anwender. Dabei ist der Vertrauenszuwachs um so höher, je genauer das Modell die Ergebnisse vorhersagt bzw. je kleiner das hinreichend ist. Ein Ziel von Modellen ist die Vorhersage von Ergebnissen, die man ohne Modell so nicht erwartet hätte. Immer wenn diese Vorhersagen dann von der Realität bestätigt werden, steigt das Vertrauen in das Modell.

Ist das Vertrauen in die kleinen Modelle hergestellt, kann man daran gehen, den Anwendungsbereich zu beschreiben, indem die Prämissen untersucht und variiert werden (Sensitivitätsanalyse). Wenn es gelingt, aus der Sensitivitätsanalyse abzuleiten, wie sich das Modell unter anders gesetzten Prämissen verhält, kann daraus ein neues, umfassenderes Modell entstehen, von dem das ursprüngliche Modell ein Spezialfall ist. Dieses umfassendere Modell ermöglicht weitere Tests und wenn es durch diese nicht widerlegt wird, wächst das Vertrauen in diese Modellwelt weiter. Ab einer bestimmten Glaubwürdigkeit - z.B. wenn die Mehrheit der Wissenschaftler ihr vertraut - wird aus der Modellwelt eine Theorie.

nach oben Anwendung von Modellen

Je nach Anwendungszweck gibt es verschiedene Modelle. Architekten machen z.B. Zeichnungen oder bauen Styropor-Modelle, um vorherzusagen, wie das Gebäude aussieht und ob alles so hineinpasst, wie es gewünscht wird. Am gebräuchlichsten sind mathematische Modelle, weil sie sich flexibel an fast jede Veränderung der Verhältnisse anpassen lassen. Sie haben vor allem den Vorteil, dass sich ihre Ergebnisse mit sehr hoher (fast beliebiger) Genauigkeit darstellen lassen. Damit können entsprechend genaue Messergebnisse - die mit Messfehlern behaftet sein können, die abzuschätzen sind - das Modell bestätigen oder verwerfen (falsifizieren).

Bei der Anwendung von Modellen sind mindestens folgende Schritte notwendig

  1. Übersetzung der Realität in die Modellrealität (Ausgangssituation)
  2. Verwenden der (bekannten) Zusammenhänge der Modellrealität.
  3. Übertragung der Modellergebnisse in die echte Realität. (Prognose)
In der Regel muss man sich zusätzlich noch mit den möglichen Abweichungen (Fehlern) beschäftigen, die dadurch entstehen, dass die Ausgangssituation nicht genau in die Modellrealität abgebildet wird oder die Zusammenhänge der Modellrealität zwar formuliert, aber Prognosen nur näherungsweise berechnet werden können. Im einfachsten Fall genügt dafür eine Fehlerabschätzung im Rahmen eine Sensitivitätsanalyse bzw. Fehlerrechnung.

Ökonomen benutzen mathematische und grafische Modelle, um Zusammenhänge darzustellen. Oft sind die genauen Kurvenverläufe nicht bekannt, nur aus einigen generellen Eigenschaften dieser Kurven werden Schlüsse gezogen und Aussagen abgeleitet. Beispiel: Das Gewinnmaximum liegt dort, wo die Grenzkosten gleich dem Preis ist, wobei z.B. eine S-förmige Produktionskostenkurve unterstellt wird.

Ein gutes Vorbild (Modell) für den Umgang mit Modellen liefert die Physik

nach oben Exkurs: Physikalische Modelle und Theorien

Die Wissenschaft, die Modelle mit höchstem Erfolg verwendet, ist die Physik. Daher ein kurzer Blick auf diese Modelle.

Das Fallgesetz ist für viele terrestrische Vorhersagen ein sehr gutes Modell, obwohl seine Vorhersagen - genau betrachtet - nicht ganz exakt sind, denn es berücksichtigt z.B. weder den Luftwiderstand, noch die - bei seiner Entdeckung noch unbekannte - Tatsache, dass die Anziehungskraft mit der Höhe abnimmt und dass die Erdbeschleunigung unterschiedlich ist, je nachdem, wo man sich befindet - am Äquator oder am Nordpol. Wichtig ist nur, dass dass das Modell seine Grenzen benennen kann: kein Luftwiderstand und keine allzu großen Höhenunterschiede. Von diesen Voraussetzungen waren Galilei bei seiner Entdeckung der Fallgesetzes nur die vermutete Abhängigkeit vom Luftwiderstand bekannt.

Die Physik hat später den Einfluss des Luftwiderstands erforscht. Dabei hat sich herausgestellt, dass das Fallgesetz sehr gute Prognosen für Körper mit hohem spezifischen Gewicht und kompakter Form, z.B, Kugeln liefert. Newtons Gravitationsgesetz, von dem die Fallgesetze ein Spezialfall sind, beschreibt die mit der Höhe abnehmenden (Erd-) Beschleunigung, die in Galileis Fallgesetz als universelle Konstante erschien, und erklärte auch, warum die Erdbeschleunigung am Äquator oder am Nordpol unterschiedlich sind. Erst mit diesen Verfeinerungen war es möglich, das Fallgesetzes auch für andere Orte auf der Erde aufzustellen und die im Experiment auftretenden Abweichungen vom Fallgesetzes genauer abzuschätzen.

Das Fallgesetz musste sich mit einem anderen Modell auseinandersetzen: Bewegungen erfolgen nach Aristoteles entweder naturgemäß oder naturwidrig (gewaltsam). Nur Lebewesen bewegen sich aus eigenem Antrieb, alles andere wird entweder von etwas bewegt oder es strebt möglichst geradlinig seinem natürlichen Ort entgegen und kommt dort zum Stillstand. Dieses Modell beschreibt den Endzustand jeder Alltags-Bewegung recht gut, liefert aber praktisch keine Hinweise über den Verlauf der Bewegung. Das Modell von Aristoteles wurde eigentlich erst durch Newton widerlegt, der zeigte, dass Erdanziehung und Planetenbewegung eine gleiche Ursache haben und der natürliche Zustand eines Körpers, auf den keine Kräfte wirken, die ewig gleichförmige Bewegung ist - ein offensichtlicher Widerspruch zum Modell des natürlichen Ruheplatzes.

Die große Glaubwürdigkeit in die Newtonsche Mechanik ergab sich vor allem auch aus der Tatsache, dass sich daraus nicht nur die empirisch gut bestätigten Fallgesetze ergaben, sondern auch die Bewegungen der Planeten, und die empirisch gefundenen Keplerschen Gesetze. Darüber hinaus konnte mit Newtons Himmelsmechanik nicht nur die Mondbahn genauer berechnet werden, sondern auch die Abweichungen der Planetenbahnen von Ellipsen (infolge der Störungen der durch die anderen Planeten). Mit diesen Störungsrechnungen konnte Urbain Le Verrier sogar die Bahn des - bis dahin unbekannten - Neptun berechnen, der dann von Johann Gottfried Galle an der vorausberechneten Stelle tatsächlich gefunden wurde. Die klassische Mechanik ist für diese und viele alltägliche Anwendungen mit sehr hoher Genauigkeit anwendbar. Trotzdem ist ihr Anwendungsbereich begrenzt. Andere, noch generellere Modelle bzw. Theorien (Relativitätstheorie, Quantenmechanik) werden bei bestimmten Fragestellungen gebraucht, wo die klassischen Mechanik versagt.

Die Glaubwürdigkeit der klassischen klassischen Physik war so hoch, dass sie fast religiösen Charakter annahm und sich viele Physiker weigerten, diese späteren Theorie-Erweiterungen zur Kenntnis zu nehmen, obwohl Experimente die neuen Theorien eindeutig bestätigten.


Wie das Wetter in 30 Tagen genau sein wird, ist heute immer noch kaum vorhersehbar.
Dennoch besteht Hoffnung diesen komplexen physikalischer Prozess immer besser zu verstehen.

nach oben Klare Begriffe und Ordnen der Fakten

Aristoteles war sich in seinem Organon der fundamentalen Bedeutung der Sprache, Logik und Wissen bewusst, um seelischen Widerfarnisse anderen Menschen mitzuteilen. Seine Einteilung des Wissens und wie es aus Wahrnehmungen, Faktensammlungen und Systematisierungen zustande kommt, hat das Weltbild lange geprägt (und den Fortschritt behindert). Er zeigt, damit, dass bereits für die Beschreibung also auch der Wahrnehmungen und Beobachtungen Begriffe notwendig sind, die auf Modellen beruhen.

Der Begriff der Kraft hatte ursprünglich eine andere Bedeutung als heute. Das merkt man noch an Begriffen wie Arbeitskraft, Lehrkraft, Lebenskraft oder als Adjektiv im juristischen kraft seines Amtes, In Kraft treten eines Gesetzes usw. Er war ein mystisch aufgeladener, verschwommener Begriff für Vieles, was man sich nicht einfach erklären konnte. Isaac Newton hatte daraus und dem griechischen Wort für Kraft, δΰναμιζ (dynamis), das dort vieles bedeutet, und dem lateinischen vis mit ähnlich mannigfaltigen Bedeutungen den klaren Begriff der Kraft destilliert, der heute die Grundlage der Physik ist. Damit und weiteren Begriffspräzisierungen (z.B: Masse, Arbeit, Leistung) und seinen Naturgesetzen insbesondere dem Gravitationsgesetz hat er ein Modell geschaffen, dass sowohl astronomische als auch terrestrische Fakten und Beobachtungen sehr genau beschreiben konnte.

Genau Beobachten heißt, möglichst genau messen. Um etwas zu messen, muss man genau wissen, was man messen will. Erst dann kann man sich mich nach einem Messinstrument umsehen, mit dem man messen will. Im Mittelalter benutzte einer die Elle. der andere den Fuß und wenn beide den Fuß benutzten ergaben sich unterschiedliche Längen, weil verschiedene Füße unterschiedlich lang waren. Die geografische Längenmessung ist in der Nautik von großer praktischer Bedeutung, um z.B. die Position einer Insel oder einer anderen Landmarke zu bestimmen und sie später wieder zu finden. Es gab dafür zwar astronomische Zeitmessverfahren (Mondfinsternis oder die von Galilei entdeckten Jupitermonde) - diese waren aber auf See kaum handelbar. Uhren zeigten die Zeit in Bruchteilen des Tages an. Dennoch gingen sie zu ungenau, so dass die Bestimmung der geografischen Länge ein Riesenproblem war, das erst durch die genau gehende Uhr von Harrisons von 1759 gelöst werden konnte.

Wie steht es in der Ökonomie mit klaren Begriffen und geordneten Fakten? Auf den ersten Blick ist das wohl der Fall. Aber schon bei dem Begriff des Nutzens beginnt der Zweifel. Er scheint ähnlich wie die antike Kraft ein Allerweltsbegriff zu sein, um alles mögliche damit zu fassen: Er ist subjektiv, hängt von der Situation ab, in der man sich gerade befindet, und ist ein Sammelbegriff für physiche, psychiche oder soziologische Bedürfnisse. Er ist individuell und nicht messbar. Versucht man, eine für alle verbindliche kardinale Nutzendefinition zu etablieren, scheitert dies an der Vielfalt individueller Situationen. Der nicht messbare Nutzen muss einige Anforderungen erfüllen, um die Grundlage des rationalen Verhaltens zu bilden. Erstaunlich. dass die Ökonomie auf diesem empirsch kaum fassbaren Nutzen große Teile ihrer Theorien aufgebaut hat.

Ein anderer ähnlich schwieriger Begriff ist die Abschreibung für Abnutzung) AFA. Soll linear, degressiv oder progressiv abgeschrieben werden? Die tatsächliche Abnutzung oder die Veraltung, weil inzwischen moderneres Gerät verfügbar ist? Bis zum Nominalwert oder bis zum Wiederbeschaffungswert? In der volkswirtschaftlichen Gesamtrechnung wird eine andere Definition benutzt als in der Steuerbilanz, Letztere findet sich dann auch in der Handelsbilanz wieder und sorgt für stille Reserven und gestattet es so den Unternehmern andere Werte als Profit auszuweisen, was dem Zweck der ehrlichen Rechnungslegung widerspricht.

Klarer scheint der Wert einer Sache oder Arbeit definiert zu sein als Preis, den man dafür zu zahlen hat. In welcher Währung? Ist die Wertschätzung, die ein Deutscher einem Kühlschrank oder einer Straßenreinigung beimisst, derselbe, die ein Eskimo ihnen beimisst? Ist der Preis nicht auch abhängig von der Menge (z.B: Mengenrabatt)? Ähnlich schwierig ist die Definition des Wirtschaftsguts. Ist ein BMW des Jahres 2010 noch derselbe wie einer von 2011? Ist ein BMW in Hamburg für der Käufer aus Buxtehude vergleichbar mit einem in München? Ähnlich hängt der Begriff und die Messung des Risikos ab von z.B: dem Maßgut (z.B: der Währung mit der gemessen wird), oder von der Maßperiode für die die Ergebnisse notiert werden.


Heute erscheint die Ökonomie komplexer als die Physik, weil sie sich mit lebendiger statt mit toter Materie befasst und weil es schwieriger ist, Experimente durchzuführen, weil Menschen lernen und dadurch ihr Verhalten ändern. Das macht es schwieriger, falsifizierbare Modelle und sie auf klaren Begriffen und Messverfahren aufbauend zu konstruieren. Dies ist aber keine Entschuldigung dafür, ökonomische Voraussagen durch ständige Wiederholungen wie Mantras oder religiöse Glaubenssätze zu propagieren und in Politik und Universitäten zu publizieren.

Paracelsus hat mit seinem Modell vom Menschen viel geleistet. Seine 4 Säfte Lehre war aber eine zu grobe Vereinfachung. Dieses Mantra führte im Mittelalter zur Behandlung durch Aderlass, die mehr Menschen umbrachte als heilte. Ratschläge der der Ökonomie an die Politik haben heute ähnlichen Charakter und Erfolg.

Die Situation verändert sich. Computer werden immer leistungsfähiger und vernetzter. Soziale Medien erlauben immer tiefere Einblicke in das individuelle Verhalten. Neue Modellansätze und klarere Begriffe könnten die Ökonomie zu einer ähnlich präzisen und beweisbaren Theorie machen, wie die Physik.


Modelle sollen an der Erfahrung validiert werden. Diese durch klare Begriffe zu beschreiben,
zu ordnen und ggf. zu messen, ist ebenfalls Bestandteil der Theorie oder des Modells.
Auch in der Ökonomie wird dies zunehmend möglich werden.

nach oben Typische Voraussetzungen bzw. Prämissen ökonomischer Modelle

Fast alle Erkenntnisse in der Ökonomie beruhen auf Modellen. Viele ökonomische Modelle verwenden zumindest einige der folgenden Prämissen:
  1. ceteris paribus- Bedingungen: für den Vorhersagebereich des Modells werden Veränderungen von außerhalb des Modells liegenden Bedingungen ausgeschlossen. Man hofft dadurch die Einflüsse anderer Zusammenhänge auszuschalten. Das Beispiel des Luftwiderstandes beim Fallgesetz zeigt, dass auch wenn die Luft sich nicht verändert (z.B. immer Windstille herrscht) dennoch äußere Wechselwirkungen das Ergebnis beeinflussen.
  2. homo oeconomicus: Menschen treffen Entscheidungen. die ausschließlich von wirtschaftlichen Parametern abhängen und daher völlig rational und nachvollziehbar sind. Dies Entscheidungen sind also weder psychologisch motiviert noch impulsiv. Natürlich ist diese Prämisse nicht realistisch, Menschen handeln impulsiv und sind psychologisch beeinflussbar. Fast jede Werbung setzt auf psychologische Beeinflussung und Impuls-Käufe und jeder Verkäufer lernt, wie er ein Verkaufsgespräch so führt, dass er den Käufer zum Kauf motiviert. Ein mürrischer Verkäufer oder ein negativ wahrgenommenes Verkaufsumfeld verhindert oft Käufe, die unter anderen Umstände zustande kämen. Man hofft, dass diese Nebenumstände sich bei großen Anzahlen von Menschen nach dem Gesetz der großen Zahl heraus mitteln, und das ökonomische Modell bis auf statistische Restschwankungen zutrifft.
  3. vollkommene Information: Alle für die Beteiligten zum Zeitpunkt möglichen und notwendige Information stehen allen Teilnehmern kostenfrei zur Verfügung. Das bedeutet z.B. auch, dass Sekundärinformationen, die durch Bearbeitung von Primärinformationen entstehen, kostenfrei verfügbar sind.
  4. Stationäres Gleichgewicht: Die Modelle beschränken sich auf die vorhersage eines Endzustandes, nachdem die ggf. notwendigen Anpassungsvorgänge abgeschlossen sind. Hierbei wird zugleich unterstellt, dass diese Endzustände stabil sind, sonst könnten sie gar nicht erreicht werden. Ebenso wird vernachlässigt, dass die Endzustände tatsächlich vielleicht nie erreicht werden, weil durch die Marktdynamik immer wieder neue Anpassungsprozesse ausgelöst werden.
  5. Determinierte Lösungen: Viele Modelle versuchen Unsicherheiten und Wahrscheinlichkeiten aus den Modellen herauszuhalten. Soweit Zufallsschwankungen oder Unsicherheiten eine Rolle spielen, beziehen sich dann die Resultate auf Erwartungswerte.
  6. Normalverteilungen: Wenn, wie z.B. bei Kapitalgütern auch zukünftige Risiken eine Rolle spielen, werden häufig Gaußsche Normalverteilungen angenommen. Dadurch werden Risiken und deren Korrelationen Bestandteile der Modelle. Man hofft mit der Unterstellung von Normalverteilungen, dass andere Verteilungen, die z.B. bei Krediten auftreten, sich bei vielen Krediten über das Gesetz der großen Zahl sich in Normalverteilungen transformieren. Dies muss jedoch keineswegs stimmen: Wenn Kreditrisiken hoch miteinander korrelieren, funktioniert diese Transformation nicht. Die Bankenkrise hat dies ja evident bewiesen.
Prämissen dienen der Vereinfachung der Modelle. Die meisten sind Idealisierungen, die so in der Realität nicht vorkommen aber dazu dienen, einen Sachverhalt möglichst ungestört untersuchen zu können - ähnlich wie Galilei sein Fallgesetz ohne den störenden Einfluss des Luftwiderstands formulierte. Die Realitätsnähe dieser Prämissen sollte für jedes Modell anschließend im Rahmen einer Sensitivitätsanalyse untersucht werden, um mögliche Abweichungen der Modellergebnisse von der Realität abschätzen zu können.
Anwendung und Überprüfung von Modelle bedürfen immer eine Abweichungsanalyse

nach oben Überblick: Klassische Modelle

nach oben 1. Das Modell rationalen Verhaltens: Die Nutzentheorie

Für Menschen haben die meisten Güter einen Wert (Preis). Diese Werte sind in der Regel nicht stabil, sondern können für eine Person je nach Situation schwanken, beispielsweise ist der Wert eines Glases voll Wasser für mich davon abhängig, wo ich mich befinde (in der Wüste oder an einem Gewässer) und ob ich gerade Durst habe oder mich satt getrunken habe, ob ich einen großen Vorrat an Wasser habe oder an ein Wasserversorgungsnetz angeschlossen bin. Händler nutzen diese Schwankungen des Wertes, um Gewinn zu machen, indem sie Güter die gerade einen geringen Wert haben, kaufen (= gegen andere Güter eintauschen, die gerade einen hohen Wert haben), um sie dann bzw. dort zu verkaufen, wo die Käufer ihnen einen hohen Wert beimessen. Ökonomie analysiert den Handel. Daher muss sie sich mit diesen schwankenden Werten und Wertrelationen befassen.

Der Preis für das Glas Wasser, auf den ich mich mit dem Händler schließlich einige, kann sehr unterschiedlich ausfallen, je nach dem welche Handlungsalternativen jeder hat und wie geschickt jeder von uns verhandelt. Beim Verhandeln spielen Psychologie, Verpackung, Eigenschaften des Wassers und emotionale Impulse oft entscheidend mit. Die Ökonomie beschreibt diese Vorgänge mit dem physiologischen und psychologischen Nutzen, den die Ware (das Glas Wasser) hat. Durch den Handel vergrößern beide ihren Nutzen: kann meinen Durst stillen und der Händler profitiert vom eingetauschten Gegenwert.

nach oben 1.2 Ordinale Nutzenfunktionen

Der situative Wert, den eine Flasche Wasser für mich hat, ist ein anderer als der, den der Händler dieser beimisst. Dies wird mit dem subjektiven Nutzen abgebildet. Dieser ist bei uns beiden unterschiedlich, sonst käme kein Handel zustande. Nun konstruiert man in der Theorie individuelle Nutzenfunktionen, die die ökonomische Welt mit den der physikalischen, psychologischen, biologischen Eingenschaften von (Meinungs-) Gegenständen verbindet. Individuellen Nutzenfunktionen sind äußerst komplex, denn sie hängen von allen denkbaren Variablen ab, denen ich einen Wert zumessen könnte und zudem von allen Situationen ab, in denen ich mich befinden könnte.

Für praktische Belange ist noch nie eine vollständige Nutzenfunktion aufgestellt worden. Man begnügt sich in der Regel damit, nur bestimmte Aspekte dieser Funktionen heranzuziehen und alle anderen Einflussfaktoren mit der ceteris paribus Prämisse auszuklammern. Zusammen mit der 2. Prämisse des homo oeconomicus wird dann zwar kein Nutzen gemessen, aber Kurven gleichen Nutzens, die Indifferenzkurven werden der theoretischen Analyse zugänglich. Für diese Analysen braucht man in den meisten Fällen den Nutzen nicht numerisch zu kennen, es ist nur wichtig, zu wissen, ob die nächste Indifferenzkurve einen höheren oder niedrigeren Nutzen hat. Daher sind kann jede Nutzenfunktionen durch eine monotone Transformation in eine andere überführt werden, die nicht nur die gleichen Indifferenzkurven sondern auch die gleiche Präferenzstruktur hat. diese Nutzenfunktionen bezeichnet man als ordinale Nutzenfunktionen.

nach oben 1.3 Kardinale Nutzenfunktionen

Indem man - theoretisch oder praktisch - Wahlsituationen zwischen unsicheren (Lotterien) und sicheren Ergebnissen untersucht, kann man den Nutzendifferenzen miteinander vergleichen und ihnen Zahlenwerte zuordnen: die Neumann Morgenstern Nutzenfunktionen. Die möglichen monotonen Transformationen, die wieder zur selben Präferenzstruktur führen, sind dann einzuschränken auf lineare Transformationen des Typs U'=a*U+b mit beliebigen Konstanten a und b, wobei a>0 sein muss. Wegen dieser Transformationsmöglichkeit ist ein interpersoneller Nutzenvergleich nicht möglich. Ein weiterer - hier nicht weiter verfolgter - Ansatz besteht darin, den Indifferenzkurven z.B. Geldwerte zuzuordnen, und so den Nutzen zu standardisieren und interpersonell vergleichbar zu machen.

nach oben Neumann Morgenstern Nutzenfunktion

Sei R die Rückzahlung bzw. der zukünftige Wert einer Investition. Zur Erklärung risikoaversen Verhaltens wurde (u.a. von Neumann Morgenstern) eine Nutzenfunktion U(R), mit folgenden Eigenschaften postuliert:
EigenschaftIndikatorformal Forderung/Bedeutung Beispiel (für alle R)
U(R) selbst und alle Ableitungen U(R) stetig für alle R A * exp(R/A), A ‡ 0, konstant
Sie steigt überall an, die 1. Ableitung dU/dR > 0 für alle R exp(R/A) > 0 Kurve
Einstellung zum Risiko: die 2. Ableitung d²U/dR² > 0 risikofreudig,
< 0 risikoavers und
= 0 risikoneutral
A > 0 risikofreudig,
A < 0 risikoavers und
U = R risikoneutral
blau
rot
grün
Nutzenfunktion
Nutzenfunktionen

Indifferenzkurven
Indifferenzkurven
Standardabweichung σPfeil rechts

Sei W(R) die Wahrscheinlichkeitsverteilung einer Investition, dann ist der Nutzenerwartungswert: E(U) = ∫ W(R) * U(R) dR; dabei ist über alle R zu integrieren (bzw. zu summieren bei diskreten R). Ein Neumann Morgenstern Investor wählt die Investition mit dem höchsten Erwartungswert.

Wegen der Stetigkeit kann man U(R) für jedes R° in eine Taylorreihe entwickeln:
U(R)=U(R°) + dU/dR * (R-R°) + 1/2 * d²U/dR² * (R-R°)² + ...
die Ableitungen sind dabei an der Stelle R° zu bilden.

Sei W(R) eine beliebige Wahrscheinlichkeitsverteilung mit dem Erwartungswert μ und der Standardabweichung σ. Setzt man R° = μ so lässt sich E(U) berechnen:
E(U) = U(μ) + 1/2 * d²U/dR² * σ² + ...
d²U/dR² ist dabei an der Stelle R=μ zu bilden. und ... steht für Terme, in denen höhere Momente der Verteilung vorkommen, die für σgegen0 schneller gegen 0 konvergierten als die Varianz σ². Beispiel: Für Normalverteilungen hängen die ... von σ4, σ6, σ8 ab.
E(U) = U(μ) + 1/2 * d²U/dR² * σ² + ... gilt generell für jedes W(R)

Für Indifferenzkurven gilt d(E(U))= 0 also dU/dμ * dμ + d²U/dR² * σ * dσ + ...
Die Steigung der Indifferenzkurve dμ/dσ = 0 bei σ= 0:

Neumann-Morgenstern-Nutzenmaximierer sind für kleine Risiken risikoneutral.
Wenn μ>0 gilt das auch z.B. für die prospekt- theorie von Daniel Kahneman und Amos Tversky.

μ und σ sind proportional zum investierten Betrag. Egal wie die Risikoeinstellung bei höheren Beträgen ist, gilt;
Für (genügend) kleine Investitionsbeträge ist jeder Neumann-Morgenstern Investor risikoneutral


nach oben 1.4 Kritik an der Theorie der Nutzenfunktionen

Rationales Verhalten des homo oeconomicus ist die Grundlage der Mikroökonomie. Sehr viele Modelle bauen auf dieser Vorstellung auf - meist in Kombination mit der ceteris paribus Bedingung, um die Verhältnisse möglichst einfach und überschaubar zu halten. Um die Form der Indifferenzkurven zu ermitteln, werden hypothetische oder reale Wahlhandlungen untersucht. In Experimenten werden Präferenzen von Probanden ermittelt und die Bedingungen so lange variiert, bis sich bei Probanden Indifferenz ergibt. Dabei sorgen individuelle Unterschiede, sich verändernde Gefühle und Lernprozesse der Probanden dafür, dass keine ceteris paribus Bedingungen hergestellt werden können und so die Darstellung der Indifferenzkurven in wenigen (meistens zwei) Dimensionen fraglich wird. Die Einbeziehung weiterer Variabler in das Testkonzept erweist sich dann als notwendig (z.B. wie die zur Wahl stehenden Alternativen präsentiert werden).

Da individuelle Nutzenfunktionen immer von sehr vielen Variablen abhängen, unter anderem von der Situation, in der sich jemand befindet, sind bisher kaum Nutzenfunktionen mit mehr als zwei Variablen aufgestellt worden. Meistens in Form von Versuchen, Alternativen zur Neumann-Morgenstern Nutzenfunktíonen zu parametrisieren. Neuere Konzepte, die zur Vorhersage von Präferenzen entwickelt wurden, unterscheiden zwischen Konsumgütern mit Besitztums-Effekt und Vermögensgütern, bei denen dieser Effekt weniger vorkommt, da sie als Wertträger bereitgehalten werden, um in Zukunft begehrte Konsumgüter zu kaufen. Mit zunehmende Handelserfahrung lässt sich dieser Effekt weiter verringern (bei Geld verschwindet er ganz, Wertträger werden rationaler gehandelt als Konsumgüter, da sie weniger der Verlustaversion unterliegen.

Dass einzelne Personen oder sogar Mehrheiten von Personen immer so rational handeln, wie in der Nutzenmaximierung bzw. dem Modell des homo-oeconomicus unterstellt, ist oft experimentell überprüft [vgl. z.B. Daniel Kahneman, schnelles Denken, langsames Denken; Siedlerverlag 2012] und widerlegt worden. Entscheidungen werden vielfach intuitiv vom Unterbewusstsein getroffen und das Bewusstsein erfindet im Nachhinein Ursachen und Absichten, die beweisen sollen, dass diese Entscheidungen rational waren. Auch diese nachträgliche Rationalisierung läuft im Unterbewusstsein ab, damit das bewusstes ICH die Illusion aufrecht erhalten kann, dass es vernünftig entschieden hat. Dass Werbung und Verkäufer diese Schwächen vielfach erfolgreich ausnutzen und ihre Kunden so überlisten, ist tägliche Praxis.

Es scheint so, dass diese Irrationalität, bzw. das schnelle Denken vor allem dann greift, wenn es schnell gehen muss oder es nicht so genau drauf ankommt. Wenn es um wichtigere Dinge geht und genug Zeit zur Verfügung steht, wird in der Regel sorgfältiger geprüft (langsames Denken), ob die Folgen der zur Entscheidung anstehenden Alternativen sich deutlich unterscheiden. Dann versucht man, erst einmal alle verfügbaren relevanten Informationen zu sammeln, um sich möglichst genaues Bild der Konsequenzen (Szenarien) zu machen. Fakten und Argumente werden sorgfältiger abgewogen. Häufig wird dadurch noch keine definitive Entscheidung für eine der Alternativen möglich - es gelingt aber meistens, einige der möglichen Alternativen auszuschließen. Jede der verbleibenden Alternativen kann so attraktiv bleiben, dass eine Endentscheidung rational nicht möglich ist.

Selbst in diesen Fällen, in denen der Verstand sich zuvor intensiv bemüht hat, rational zu entscheiden, kann es so zu Alternativen kommen, die für den Entscheider gleichwertig sind (Indifferenz des Entscheiders). Diese Situation ist für die, die vernünftig entscheiden wollen, wenig befriedigend, oft sogar frustrierend. Dann kommt es nicht so genau darauf an und die finale Entscheidung trifft wieder das schnelle, intuitive Denken, das z.B. Heuristiken benutzt, nachahmt was andere in vermeintlich ähnlichen Situationen gemacht haben, oder spontanen Assoziationen folgt usw. Steht die Entscheidung unter Zeitdruck, wird eine rationale Analyse und Entscheidung schwieriger, der Indifferenzbereich der durch die Ratio nicht differenzierbaren Alternativen größer, und der Entscheidungsdruck führt verstärkt zu intuitiven Entscheidungen und Handlungen (schnelles Denken).

Intuitive Entscheidungen müssen nicht falsch sein - im Gegenteil: das automatisierte schnelle Denken greift auf gelernte Erfahrungen zurück. Diese können auch auf die aktuellen Situation anwendbar sein und sind es oft auch. Aber nicht immer. Schnelles, automatisierten Denken ist vor allem in neuartigen Situationen fehleranfällig. Es ist auf schnelles Lernen programmiert und lernt zu schnell, Zusammenhänge oder Regeln zu vermuten (und anzuwenden), obwohl die erlebten Beispiele dafür noch nicht ausreichen. Diese Fähigkeit, schnell zu lernen und zu reagieren, hat sicher dem Vormenschen das Überleben ermöglicht. Heute ist es vielfach nicht notwendig, schnell zu reagieren. Besonders, wenn es um Investitionsentscheidungen oder im komplizierte, aus Primärstatistiken abzuleitende Fragestellungen oder um Wahrscheinlichkeitsabschätzungen geht, führt die sorgfältige Situations- und Statistikanalyse des langsamen, analytischen Denkens zu besseren Entscheidungen.

Schnelles, intuitives Denken ist oft gar nicht so irrational. Langsames, analytisches Denkens, kommt oft auch nicht zu klar besseren Entscheidungen, ist aber erheblich aufwendiger.
Wieso hält man in der Mikroökonomie am Konzept des rationalen Verhaltens auf Basis der Nutzenfunktionen fest, obwohl dieses experimentell so oft widerlegt worden ist? Zwar kann man vielleicht beobachtetes Verhalten von Probanden durch Einführung weiterer ökonomischer (z.B. Berücksichtigung des Analyse-Aufwands) oder psychologischer (z.B. Verlustaversion) Variablen besser beschreiben, aber es stellt sich die Frage, ob man damit zu besseren Modellen kommt. Es kann durchaus sein, dass sich rationales Verhalten in Markt-Modellen durchsetzt, weil entweder die weiteren Faktoren individuell zufällig sind, dass sie sich in aggregierten Größen (Preis, Nachfrage usw.) heraus mitteln oder rationales Verhalten ist ein Soll-Konzept, mit dem die, die sich danach verhalten, sich auf Kosten der anderen besser stellen und so den Markt dominieren (Neumann Morgensterns Theorie der Nullsummenspiele).
Modelle, die rationales Verhalten voraussetzen, sollten die
Wirkungen irrationalen Verhaltens auf die Modellergebnisse zumindest grob abschätzen.

nach oben 2. Modelle der Preisbildung

nach oben Totale und partielle Konkurrenz

Preise bilden sich an Märkten aus Angebot und Nachfrage. Das lernt man als erste Lektion der Ökonomie. Ein klassisches Modell dafür ist der vollkommene Markt. Als Praxisbeispiel diente William Stanley Jevons [1871: Theory of political economy] wohl der wöchentliche Lebensmittel- oder Viehmarkt, wie er im 19. Jahrhundert in vielen Städten vorkam, wo die Bauern ihre Produkte an Ständen anboten und mit den Käufern um den Preis feilschten. Diese Märkte sind heute fast ausgestorben, Flohmärkte und orientalische Märkte erinnern noch entfernt an diese Zeiten.
Was man meistens nicht lernt, ist, das bereits dieses einfache Modell auf Voraussetzungen beruht, die mit der Realität regelmäßig wenig zu tun haben: Wichtige Voraussetzungen sind z.B.:
  • der "homo oeconomicus": die Beteiligten interessieren sich nur für den Preis. Bekanntschaften, Beziehungen, Nebenabsprachen oder andere Präferenzen. spielen keine Rolle.
  • die Homogenität der Waren: Alle waren können sich vertreten: es gibt z.B. keine Qualitätsunterschiede, sie werden alle auf die gleiche Art präsentiert, haben das gleiche Image ......
  • vollständiger Informationsaustausch zwischen allen Marktteilnehmern (Markttransparenz) ......
  • die Preisfindungsphase: alle Marktteilnehmer verschaffen sich erst einen Überblick über die Preisvorstellungen, bevor sie sich entscheiden. In dieser Phase dürfen keine Störungen eintreten z.B. neue Angebote, Nachfragen, Informationen...
  • die Anordnung der Nachfrager und Anbieter entsprechend ihren Preisvorstellungen
  • ...

preisnachfrage
Marktmodell der vollständigen Konkurrenz
Anbieter und Nachfrager sind Mengenanpasser
Die Theorie der Preisbildung aus Angebot und Nachfrage ist weiter ausgebaut worden. Hypothetische Produktionskostenfunktionen und Preis-Absatzfunktionen werden postuliert. Preise und Absatzmengen ergeben sich dann aus und Gewinn- bzw. Nutzenmaxima und es kommt jeweils darauf an, ob sich die Anbieter Nachfrage als Mengenanpasser verhalten müssen, wie in der vollständigen Konkurrenz als unvollständig abqualifiziert. Neutraler wäre es, von totaler und partieller Konkurrenz zu sprechen. Modelle partieller Konkurrenz sind z.B. die Modelle des Monopols, Oligopols oder des Polypols. Sie spalten sich in eine Vielzahl von Untermodellen auf. So gibt es z.B. staatliche, private Monopole oder Patente. Der Monopolist kann als Anbieter oder als Nachfrager auftreten. Darauf soll hier nicht weiter eingegangen werden - die angegebenen Verweise bzw. links können als Einstieg zur Vertiefung genutzt werden.
Eine moralische Einteilung der Modelle in gut oder schlecht ist voreilig.
Die Frage ist eher: wird mit diesen Modellen die Realität zutreffend beschrieben?

nach oben Bilaterales Monopol

nach obenPreis
Bilaterales Monopol
Die möglichen Kontraktpunkte, U,V,W
liegen auf der Engelkurve = E
Im bilateralen Monopol. stehen sich nur ein Nachfrager und ein Anbieter gegenüber. Dabei kann es sich um die Verhandlung zwischen einem Einkäufer einer Handelskette und einem Anbieter eines einer speziellen Ware handeln, eine Tarifverhandlung oder die Verhandlung. zwischen einem Käufer und ein Verkäufer z.B. auf einem Basar.

Theorie: In der Abbildung rechts sind Indifferenzkurven zu sehen - rot für den Anbieter, dessen Nutzten (Gewinn oder Deckungsbeitrag) in Richtung des roten Pfeils ansteigt, und grün für den Nachfrager. X enthält je nach Situation nicht nur die Menge, sondern alle verhandlungsrelevanten Festlegungen, z.B. Rabatte, Garantien, Lieferzeiten, Zahlungsmodalitäten, Zusatzgeschäfte, Ausstattungen, Vertragslaufzeiten usw.

Im Punkt A, der Ausgangslage, schneiden sich die beiden durchgezeichneten Indifferenzkurven. In den Punkten U,V, W sind nur Ausschnitte der Indifferenzkurven gezeigt. Falls keine Ausgangslage existiert, steht A für die Alternativen, die jeder mit alternativen Partnern (problemlos) erreichen könnte. Es ergibt sich die gelbe Fläche, in der jeder Punkt im Vergleich zur Ausgangslage für beide Partner vorteilhaft ist.

Der blaue Pfeil zeigt die Richtung, in der beide sich durch einen Kontrakt verbessern könnten. Wo sich die beiden sich einigen, können zeigt die Kontraktlinie E (=Engelkurve). Sie zeigt alle Verhandlungsergebnisse, von denen aus jede Veränderung eine Verschlechterung für zumindest einer der beiden Partner bedeutet. Im Punkt U Zieht der Anbieter den Nachfrager über den Tisch - er erreicht keine Verbesserung gegenüber der Ausgangslage, Im Punkt W ist es umgekehrt. Wo die beiden sich zwischen U und W z.B. in V einigen, kann die klassische Theorie nicht vorhersagen. Lediglich mit zusätzlichen Modellannahmen z.B. der Forderung fristenkongruenter Vertragsdauern kann eine Lösung gefunden werden. Da der Anbieter bei W sein Interesse am Vertrag verliert und bei U der Nachfager, muss es einen Punkt, z.B. V geben. bei dem beide Interesse am einem gleich lang wirkenden Vertrag haben.

Existieren viele mögliche Alternativpunkte A, die jeder mit alternativen Partnern (problemlos) ausweichen könnte, sucht sich jeder den für ihn günstigsten heraus, bevor er verhandelt. Dadurch verengt sich der gelbe Spielraum für Verhandlungen. Manchmal so, dass sich der Aufwand einer Verhandlung nicht mehr lohnt. Das Modell des bilateralen Monopols nähert sich dann dem Modell der totalen Konkurrenz.

Praxis: Eine Verhandlung findet zwischen Menschen statt und ist daher stark von den psychologischen und kommunikativen Fähigkeiten der Kontrahenten abhängig. Dennoch ist es möglich und sinnvoll, aus dem Modell des bilateralen Monopols den Rahmen und einige Einsichten in die Praxis zu übernehmen.

Zu Beginn der Verhandlung kennt bestenfalls jeder idealerweise seine eigene Indifferenzkurve. Besteht eine Partei aus mehreren Personen, ist selbst das nicht selbstverständlich. Diese sollten sich in der Vorbereitung der Verhandlung darüber einigen, wo ihre eigene Indifferenzkurve liegt. Meistens legt man nur ein Abbruchkriterium fest, so dass man die Verhandlung bei ungünstigem Verlauf, wenn das Verhandlungsergebnis schlechter wird als die Ausgangslage, ergebnislos abbrechen kann. Üblicherweise versucht man sich noch ein Verhandlungsziel vorzustellen, das man zu erreichen hofft. Vom vollständig rationalen Verhalten, das zu einer Indifferenzkurve führen würde, ist man so in der Regel noch weit entfernt. Auch wenn die Partei nur aus einer Person besteht ist die Formulierung eines Verhandlungsziels und eines Abbruchkriteriums hilfreich. Zusätzlich könnte es sinnvoll sein, zu prüfen:

Normalerweise kennt man die Indifferenzkurve der Gegenseite nicht. Es herrscht also keine vollständige Information. Oft gibt es aber Vermutungen, wo sie liegen könnte. und man ahnt, in welcher Richtung eine Verbesserung für beide Seiten möglich ist (blauer Pfeil). Auch ist es nützlich sich in den Verhandlungspartner hinein zu denken, z.B.: Zur Vorbereitung gehört auch die Frage, ob ein Neutraler dabei sein sollte, und wie der zeitliche Ablauf zu strukturieren ist. Zur zeitlichen Struktur bewährt hat sich z.B. das folgende KOALA Schema:
Phaserationale SachebeneEmo-Ebene
KKontakt Wer? ist weshalb? für wen hier?Kennen lernen, Personen einschätzen
O OrientierungWorum geht es? ... nicht? Symptome?Interessen erkennen, sich einfühlen
AAnalyseUrsachen? Zusammenhänge? WünscheSituation beider Seiten verstehen
LLösungMöglichkeiten? Kombinationen? Bewertung?Verständnis für einander entwickeln
AAbschlussAuswahl und Ausgestaltung der besten LösungEinverständnis, einander vertrauen können

Jede Stufe des KOALA Schemas soll sorgfältig durchgearbeitet werden, bevor die nächste Stufe in Angriff genommen wird. Dies verhindert, das ein bereits erreichter Fortschritt durch Rückfall in eine frühere Stufe wieder in Frage gestellt wird, und das Misstrauen wieder wächst. Der Prozess des wechselseitigen Verstehens kann so nicht gleich wieder sabotiert werden. Tricks oder Druck, um den Partner über den Tisch zu ziehen, werden bei diesem - eher bedächtigen - Vorgehen erkannt und verlieren ihre Wirkung. Auch weil jede Partei die Verhandlung jederzeit unter- oder ganz abbrechen kann.

Das KOALA-Schema zeigt, dass das Ergebnis einer Verhandlung nicht nur eine Lösung auf der Sachebene ist, sondern dass zugleich auch ein psychologischer Prozess ist, in dem beide Seiten einander näherkommen und einander zunehmend vertrauen. Wie wichtig dieses graduelle Vertrauen ist, zeigt sich immer dann, wenn später nicht vorhersehbare Probleme oder Störungen auftreten. Bei vertrauensvoller Zusammenarbeit lassen sich diese Schwierigkeiten überwinden, auch wenn dabei gelegentlich das Vertragswerk überarbeitet oder gar neu verhandelt werden muss.

Das bilaterale Monopol ist grundlegend für Modelle, die rationales Verhalten voraussetzen.
Hier zeigen sich die Diskrepanzen und Gemeinsamkeiten zwischen Theorie und Praxis.

nach oben Weiterentwicklung der Modelle

Die Theorie der Preise für Konsumgüter hat sich weiterentwickeln müssen, weil moderne Supermärkte sich radikal vom alten Wochenmärkten unterscheiden. Der Preis wird vom Anbieter festgesetzt und ist nur ein Element im Spektrum der absatzpolitischen Instrumente, mit denen der potentielle Käufer umworben wird. Insbesondere bei Markenartikeln kauft der Kunde nicht einfach nur eine Ware - er kauft ein Image eine Wunscherfüllung, ein Lebensgefühl, das dieses Produkt vermitteln soll. Weil die Käufer zwischen verschiedenen Artikeln indifferent sind, können ihre Gefühle angesprochen und genutzt werden, so dass sie überwiegend intuitiv entscheiden. Im Marktmodell werden diese Fragen diskutiert und modelliert.

Die Theorie der Preise für Kapitalgüter, die z.B. an Börsen gehandelt werden und bei vielen Ökonomen als Musterbeispiel für einen vollkommenen Markt gilt, hat sich ebenfalls weiterentwickelt. Kapitalgüter werden ja primär nicht gekauft, um sich einen Konsumwunsch zu erfüllen, sondern vor allem, um sie wieder zu verkaufen, wenn Geld gebraucht wird. Hier spielt als neben dem Einkaufspreis die Verzinsung und der mögliche Verkaufspreis eine entscheidende Rolle. Letzterer hängt von der Fungibilität ab - je leichter der Verkaufspreis realisiert werden kann, desto eher eignet sich das Kapitalgut als Notgroschen. Diese Themen werden in Kapitalgüterpreise weiter vertieft.

Bei vielen Vermögens-Gütern ist aber oft nicht ganz klar, ob es sich um eine reines Kapitalgut handelt. Bei Häusern und Grundstücken, Autos, Yachten, oder Farmen wird vielfach auch ein Lebenstraum verwirklicht. Gleichwohl können diese Objekte bei Bedarf auch wieder verkauft werden, wenn eine Notlage eintritt. Sie nehmen eine Art Zwitterstellung zwischen Konsum und Kapitalgut ein.


Preise von Kapitalgütern sind von besonderem Interesse für Bank- und Vermögensberater, die Unternehmern und Privaten bei ihren Vermögensentscheidungen helfen sollen. Sie sollen Investitionsmöglichkeiten, deren Chancen und Risiken genau kennen, wenn sie ihren Job gut machen sollen. Dazu werden sie speziell ausgebildet und lernen manche Theorie, die ihnen helfen soll, Fehlentscheidungen zu vermeiden. Die folgenden Ausführungen sollen dazu beitragen, dass diese Berater nicht nur die Theorie besser verstehen, sondern auch davor warnen, vorschnellen "Kurzschlüssen" aus der den Theorien zu glauben. Es ist nicht auszuschließen, dass es gerade diese Kurzschlüsse und Vereinfachungen waren, die zu den Bankenkrise anfangs dieses Jahrtausends geführt haben.

Die Weiterentwicklung geht nur im Rahmen realistischerer Prämissen.
Zuvor aber ist zu klären: Was eigentlich ist das Geld.mit dem wir Dinge bewerten?