Mikroökonomie 1: Optimierung und Komparative Statik (PDF)
Document Details
Uploaded by AppreciatedUranium
Universität Bern
Jean-Michel Benkert
Tags
Summary
These lecture notes cover optimization and comparative statics in microeconomics, specifically for a class at Universität Bern. They discuss different optimization problems, including utility maximization and cost minimization. Examples and intuition are provided.
Full Transcript
Mikroökonomie 1 2. Optimierung und Komparative Statik Jean-Michel Benkert (Universität Bern) Einführung Das Standard-Problem der Mikroökonomie - In der Mikroökonomie ist die Optimierung, d.h. die Maximierung oder Minimierung n einer Zielfunktion f : R → R, von ze...
Mikroökonomie 1 2. Optimierung und Komparative Statik Jean-Michel Benkert (Universität Bern) Einführung Das Standard-Problem der Mikroökonomie - In der Mikroökonomie ist die Optimierung, d.h. die Maximierung oder Minimierung n einer Zielfunktion f : R → R, von zentraler Bedeutung. - Typisch ist dabei die Wahl der Entscheidungsvariablen x auf eine n Entscheidungsmenge D ⊂ R beschränkt. - f und/oder D hängen oft von einem oder mehreren Parametern θ ∈ Rm ab. 2 / 27 Einführung Beispiele - Nutzenmaximierung: Gegeben θ = (p1 , p2 , m, a1 , a2 ), bestehend aus Güterpreisen, Konsumenteneinkommen, und Präferenzparametern, nde ein erschwingliches Güterbündel x ∈ D(θ) = {x ∈ R2+ |x1 p1 + x2 p2 ≤ m}, welches den Nutzen f (x; θ) = xa11 xa22 maximiert. - Kostenminimierung: Gegeben θ = (w1 , w2 , q, α), bestehend aus Inputpreisen, gewünschter Outputmenge, und Technologieparametern, nde eine zur Herstellung von q Einheiten ausreichende Input-Kombination x ∈ D(θ) = {x ∈ R2+ |xα1 x21−α ≥ q}, welche die Herstellungskosten f (x; θ) = w1 x1 + w2 x2 minimiert. - Cournot-Reaktionsfunktion: Gegeben θ = (a, c, q), bestehend aus Nachfrage- und Kostenparametern und der von der Konkurrenzrma produzierten Menge, nde den Output x ∈ D = R+ welcher den Gewinn eines Duopolisten f (x; θ) = x(a − c − q − x) maximiert. 3 / 27 Einführung Parametrisierte Optimierung - Es sei f : Rn × Rm → R eine parametrisierte Zielfunktion mit Wert f (x; θ) und es sei D : Rm → Rn eine Korrespondenz, d.h. eine Funktion, die jedem Parameterwert θ ∈ Rm eine Menge zulässiger Entscheidungen D(θ) ⊂ Rn zuordnet. - Denition: Maximalwert f ∗ (θ) = max{f (x; θ)|x ∈ D(θ)}. f ∗ (θ) ist der maximierte Wert der Zielfunktion innerhalb der Menge aller zulässigen Entscheidungen. - Denition: Optimale Entscheidung(en) D∗ (θ) = {x ∈ D(θ)|f (x; θ) ≥ f (y; θ) für alle y ∈ D(θ)}. D∗ (θ) ist die Menge aller Entscheidungen, welche die Zielfunktion in der Menge aller zulässigen Entscheidungen maximieren. 4 / 27 Einführung Diese Vorlesung In dieser Vorlesung werden wir die folgenden Fragen beantworten. 1 Existenz: Unter welchen Bedingungen existiert eine Lösung, d.h. wann ist D∗ (θ) ̸= ∅? 2 Eindeutigkeit: Unter welchen Bedingungen besteht D∗ (θ) aus einem einzelnen ∗ Element x (θ)? 3 Bestimmung: Wie können wir die Lösung des Problems mit Nebenbedingung bestimmen? 4 Komparative Statik: Ist sowohl Existenz als auch Eindeutigkeit für alle θ erfüllt, wie ∗ hängen f (θ) und x∗ (θ) von den Parametern ab? Im Folgenden betrachten wir zunächst Existenz und Eindeutigkeit für gegebenes θ, d.h. die potentielle Abhängigkeit von θ wird in der Notation vernachlässigt. Im Anschluss wenden wir uns der parametrischen Abhängigkeit zu. 5 / 27 Existenz Satz von Weierstrass - Wann hat das Problem max f (x) x∈D eine Lösung, d.h. wann existiert (mindestens) ein x∗ ∈ D so dass f (x∗ ) ≥ f (x) für alle x ∈ D? - Natürlich existiert eine Lösung, wenn D nur eine endliche Anzahl an Elementen hat. Typischerweise haben Entscheidungsmengen jedoch unendlich viele Elemente. Satz von Weierstrass Ist D ⊂ Rn eine kompakte Menge und f :D→R eine stetige Funktion, so nimmt f in D ein Maximum an. 6 / 27 Existenz Diskussion der Bedingungen - Eine Menge D ist kompakt, wenn sie abgeschlossen und beschränkt ist. 1 ◦ D = (0, 1) ist beschränkt (0 < x < 1 für alle x ∈ D) aber nicht abgeschlossen (k ∈D für 1 alle k = 1, 2,... aber limn→∞ n = 0 ̸∈ D ). ◦ D = R+ = [0, ∞) ist abgeschlossen aber nicht beschränkt. ◦ D = [0, 1] ist abgeschlossen und beschränkt und daher kompakt. f (x) = x nimmt nur im letzten Fall ein Maximum an! - Die Bedingungen des Satzes von Weierstrass sind hinreichende aber nicht notwendige Bedingungen. ◦ D = R+ ist nicht kompakt und 1 für x rational f (x) = 0 für x irrational ist nicht stetig und dennoch nimmt f in D ein Maximum (bei jeder rationalen Zahl) an. 7 / 27 Existenz Anwendung: Nutzenmaximierung - Betrachte einen Konsumenten mit Einkommen m und stetiger Nutzenfunktion f (x1 , x2 ) über zwei Güter mit Preisen p1 und p2. Gibt es ein Güterbündel x = (x1 , x2 ) welches den Nutzen des Konsumenten maximiert, d.h. hat max f (x1 , x2 ) x∈D={x∈R2+ |p1 x1 +p2 x2 ≤m} eine Lösung? - Die Zielfunktion ist stetig nach Annahme. Ist die Entscheidungsmenge kompakt? m ◦ Da sich der Konsument höchstens p von Gut i i leisten kann, ist die Budgetmenge m m beschränkt, i.e. x ≤ ( p , p ) für alle x ∈ D. 1 2 ◦ Konvergiert eine Güterbündelserie xk gegen ein Güterbündel x̄ und gilt p1 xk1 + p2 xk2 ≤ m für alle k = 1, 2,... dann gilt auch p1 x̄1 + p2 x̄2 ≤ m, d.h. die Budgetmenge D ist abgeschlossen. - Der Satz von Weierstrass impliziert die Existenz einer Lösung des Nutzenmaximierungsproblems bei stetiger Nutzenfunktion. 8 / 27 Bestimmung Optimierung mit Nebenbedingung - Bei vielen mikroökonomischen Optimierungsproblemen ist die Entscheidungsmenge durch eine (oder mehrere) Gleichungen eingegrenzt, d.h. D = {x ∈ Rn |g(x) = 0}. - Zum Beispiel wissen wir, dass bei Nutzenmaximierung mit monotoner Nutzenfunktion das optimale Güterbündel auf der Budgetgeraden liegen muss, welche durch die Gleichung g(x) = p1 x1 + p2 x2 − m = 0 gegeben ist. - In Analogie zu einfachen Optimierungsproblemen (ohne Nebenbedingung) können notwendige Bedingungen erster Ordnung für lokale Maxima mit dem Satz von Weierstrass kombiniert werden um eine globale Lösung zu bestimmen. 9 / 27 Bestimmung Bedingung 1. Ordnung - Angenommen die Funktion f : Rn → R ist dierenzierbar. Der Vektor ∂f (x) ∂f (x) ∇f (x) = ( ,..., ) ∂x1 ∂xn wird als Gradient der Funktion f im Punkt x bezeichnet. - Gibt es keinerlei Einschränkung an die Entscheidungsvariable x ∈ Rn oder liegt ein ∗ Maximum x im Inneren der Menge D (d.h. nicht auf dem Rand), so muss die folgende Bedingung 1. Ordnung erfüllt sein: ∇f (x∗ ) = (0,... , 0). 10 / 27 Bestimmung Intuition: Gradient - Angenommen die Funktion f : R2 → R misst die Höhe über dem Meeresspiegel in Abhängigkeit der geographischen Länge x1 und Breite x2. ∂f (x) ∂f (x) - Der Gradient ∇f (x) = ( ∂x1 , ∂x2 ) zeigt in die Richtung des steilsten Anstieges und seine Länge beziert die zugehörige Steigung. - Auf topographischen Karten sind Höhenlinien verzeichnet. Entlang von Höhenlinien wandert man ach, orthogonal dazu wandert man am steilsten. - Der Gradient an einem Punkt x steht immer orthogonal zu der Höhenlinie durch den Punkt x. 11 / 27 Bestimmung Der höchste Punkt der Schweiz - Angenommen wir suchen den höchsten Punkt der Schweiz. Dieser hat die Koordinaten x∗1 = 45, 56, 12N und x∗2 = 7, 52, 0E und wird als Dufourspitze bezeichnet. Dufourspitze 4634m 4600m 4500m 4400m 4300m - Legt man eine Wasserwaage auf die Dufourspitze, so zeigt diese die Steigung Null, egal ∗ in welcher Himmelsrichtung die Waage ausgerichtet wird, d.h. ∇f (x ) = (0,... , 0). - Wäre dies nicht der Fall, so würde ein kleiner Schritt in Richtung von ∇f (x∗ ) die Höhe vergrössern, d.h. die Dufourspitze wäre nicht der höchste Punkt der Schweiz. 12 / 27 Bestimmung Differenzierbarkeit - Die Bedingung 1. Ordnung für ein Maximum setzt voraus, dass die Steigung der ∗ Funktion f am Punkt x wohldeniert ist, und zwar für alle Richtungen. - Liegt die Dufourspitze auf einer Kante oder Spitze, so ist die Steigung an diesem Punkt nicht wohldeniert und daher nicht notwendigerweise gleich Null. - Dierenzierbare Funktionen f repräsentieren glatte Landschaften, ohne Kanten und Spitzen. Toskana Schweiz differenzierbar nicht differenzierbar 13 / 27 Bestimmung Maximierung mit Nebenbedingung Satz von Lagrange Es seienf, g : Rn → R dierenzierbare Funktionen und x∗ sei ein lokales Maximum der n ∗ Funktion f in der Menge D = {x ∈ R |g(x) = 0}. Dann existiert ein λ ∈ R so dass ∇f (x∗ ) = λ∗ ∇g(x∗ ). Am Punkt x∗ zeigen der Gradient von f und der Gradient von g in die gleiche Richtung. Methode von Lagrange: Existiert ein globales Maximum in D und hat das folgende Gleichungssystem ∂f (x∗ ) ∂g(x∗ ) − λ∗ = 0 ∂xi ∂xi g(x∗ ) = 0 eine eindeutige Lösung (x∗ , λ∗ ) , so ist x∗ die Lösung des Maximierungsproblems mit Nebenbedingung. 14 / 27 Bestimmung Intuition: Lagrange 1/2 - Angenommen die Funktion g : R2 → R misst die Entfernung vom 7. Meridian. Wir suchen den höchsten Punkt, der auf dem 7. Meridian liegt, d.h. der g(x) = 0 erfüllt. Dufourspitze 4634m 4600m 4500m 4400m 4300m 7. Meridian - Entlang des Meridians zeigt ∇g nach Osten, da sich in diese Richtung der Abstand vom Meridian am stärksten ändert. 15 / 27 Bestimmung Intuition: Lagrange 2/2 - Lagrange sagt, dass bei x∗ die Gradienten ∇f (x∗ ) und ∇g(x∗ ) parallel sein müssen. Warum? Höhenlinie schneidet Meridian, Bewegung entlang des Meridians vergrössert Höhe. Höchster Punkt auf Meridian, Höhenlinie verläuft parallel Dufourspitze zum Meridian. 4634m 4600m 4500m 4300m 4400m 7. Meridian - ∇g steht senkrecht auf Meridian, ∇f steht senkrecht auf Höhenlinie. Wären ∇f (x∗ ) ∗ und ∇g(x ) nicht parallel, so wären bei x∗ Höhenlinie und Meridian nicht parallel! Eine Bewegung entlang des Meridians würde dann auf eine höhere Höhenlinie führen. 16 / 27 Bestimmung Anwendung: Nutzenmaximierung - Betrachte das Nutzenmaximierungsproblem: max f (x1 , x2 ). x∈D={x∈R2+ |g(x)=p1 x1 +p2 x2 −m=0} - Lagrange: Existiert eine eindeutige Lösung x∗1 > 0, x∗2 > 0, λ∗ ∈ R des Systems ∂f (x∗1 , x∗2 ) ∂g(x∗1 , x∗2 ) = λ∗ = λp1 ∂x1 ∂x1 ∂f (x∗1 , x∗2 ) ∂g(x∗1 , x∗2 ) = λ∗ = λp2 ∂x2 ∂x2 g(x∗1 , x∗2 ) = 0 so ist (x∗1 , x∗2 ) die Lösung des Nutzenmaximierungsproblems. - Erinnerung: Bei x∗ haben Budgetgerade und Indierenzkurve die gleiche Steigung: ∂f (x∗1 ,x∗2 ) ∂x1 p1 p1 − ∂f (x ∗ ,x∗ ) =− ⇔ GRS =. 1 2 p2 p2 ∂x2 17 / 27 Ein Blick in die Übungen - Im ersten Übungsblatt gibt es ein Kochrezept für Lagrangeprobleme. - Darüber hinaus gibt es ein paar Übungsbeispiele, um das Lagrangeproblem selbst aufzustellen und die Lösung zu bestimmen. 18 / 27 Eindeutigkeit Satz vom Maximum - Unter welchen Bedingungen ist die Lösung eines parametrisierten Optimierungsproblems max f (x, θ). x∈D(θ) eindeutig, s.d. wir nicht nur f ∗ (θ) sondern auch D∗ (θ) = {x∗ (θ)} als Funktion des Parameters θ verstehen können? Satz vom Maximum Angenommen - f (., θ) ist stetig und strikt konkav in x für alle θ. - D(.) ist stetig und für alle θ ist D(θ) kompakt und konvex. ∗ Dann sind f (θ) und D∗ (θ) = {x∗ (θ)} stetige Funktionen und f ∗ (θ) ist strikt konkav. Ist f (., θ) ∗ nur konkav, so besteht D (θ) nicht notwendig aus einem einzelnem Element, aber f ∗ (θ) ist dennoch stetig und konkav. 19 / 27 Eindeutigkeit Diskussion der Bedingungen: Konkavität der Zielfunktion - Die Funktion f : Rn → R ist strikt konkav, wenn für alle k ∈ (0, 1) f (kx + (1 − k)y) > kf (x) + (1 − k)f (y). Der Wert des Durchschnitts ist grösser als der Durchschnitt der Werte. Konkave Funktion - f : R2 → R dierenzierbar ist strikt konkav wenn: 2 ∂ 2 f (x) ∂ 2 f (x) ∂ 2 f (x) ∂ 2 f (x) ∂x2i ∂x21 ∂x22 ∂x1 ∂x2 20 / 27 Eindeutigkeit Diskussion der Bedingungen: Konvexität der Entscheidungsmenge - Die Menge D ⊂ Rm ist konvex, wenn für alle x, y ∈ D und alle k ∈ (0, 1) z = kx + (1 − k)y ∈ D. Jeder Durchschnitt zweier Elemente in D ist selbst Element der Menge D. Konvexe Menge Nicht Konvexe Mengen x z y - Konvexität schliesst Löcher aus. 21 / 27 Eindeutigkeit Anwendung: Nutzenmaximierung - Betrachte das Cobb-Douglas Nutzenmaximierungsproblem: max xa11 xa22. x∈D={x∈R2+ |g(x)=p1 x1 +p2 x2 −m=0} - Prüfe strikte Konkavität: ∂2 a = ai (ai − 1)xai i −2 xj j < 0 ⇔ ai ∈ (0, 1) ∂x2i 2 ∂2 ∂2 ∂2 1 −2 2a2 −2 2 2 − = a1 a2 (1 − a1 − a2 )x2a 1 x2 > 0? ∂x1 ∂x2 ∂x1 ∂x2 - Der Satz vom Maximum impliziert, dass für ai ∈ (0, 1), a1 + a2 < 1 die Cobb-Douglas ∗ Nachfragefunktionen xi (p, m) wohldeniert sind und dass die indirekte Cobb-Douglas ∗ Nutzenfunktion f (p, m) strikt konkav ist (⇒ Risiko-Aversion). 22 / 27 Komparative Statik Satz der Monotonie - Komparative Statik befasst sich mit der Frage, wie optimierte Entscheidungen mit externen Parametern variieren. - Die folgenden Betrachtungen beziehen sich auf den Fall, in dem Parameter die Zielfunktion, nicht aber die Entscheidungsmenge beeinussen. - Betrachte f : R × R+ → R mit f (x, θ) dierenzierbar und strikt konkav in x. Wann ist ∗ x (θ) = arg max f (x, θ) x∈[x,x̄] eine monoton steigende oder fallende Funktion? Satz der Monotonie Die optimale Entscheidung x∗ (θ) ist streng monoton steigend (fallend) im Parameter θ wenn ∂2f > ( 0, so vergrössert ein Anstieg im Parameter θ den marginalen Eekt der Entscheidungsvariablen x. - Um die Bedingung erster Ordnung weiterhin zu erfüllen, muss sich x so anpassen, dass sich der marginale Eekt der Entscheidungsvariablen wieder verringert. - Da f konkav ist bedeutet dies, dass x zunehmen muss. ∂f (x∗ (θ), θ) ∂ 2 f (x∗ (θ), θ) ∂ 2 f (x∗ (θ), θ) dx∗ (θ) =0⇒ + = 0. ∂x ∂x∂θ ∂x2 dθ 24 / 27 Komparative Statik Anwendung: Cournot-Reaktionsfunktion - Betrachte die Reaktionsfunktion eines Duopolisten mit konstanten Grenzkosten c und ′ inverser Nachfragefunktion P mit P < 0: x∗ (θ) = arg max f (x, θ) = x[P (x + θ) − c]. x∈[0,x̄] - Berechne die zweiten Ableitungen ∂2f = 2P ′ (x + θ) + xP ′′ (x + θ) ∂x2 ∂2f = P ′ (x + θ) + xP ′′ (x + θ). ∂x∂θ - Aus dem Satz der Monotonie folgt, dass die Cournot-Reaktionsfunktion fallend ist, solange die inverse Nachfragefunktion nicht zu konvex ist. - Eine Produktionssteigerung der Konkurenz verringert den Grenzprot des eigenen Outputs. Um diesen wieder (auf Null) zu erhöhen muss die eigene Produktion abnehmen. 25 / 27 Komparative Statik Parametrische Abhängigkeit des Maximalwertes - Wie variiert der maximierte Wert f ∗ (θ) = maxx∈[x,x̄] f (x, θ) mit dem Parameter θ? - Betrachte das totale Dierential: df ∗ (θ) df (x∗ (θ), θ) ∂f (x∗ (θ), θ) ∂f (x∗ (θ), θ) dx∗ (θ) = = +. dθ dθ ∂θ ∂x dθ ∂f (x∗ (θ),θ) - Die Bedingung 1. Ordnung verlangt, dass ∂x = 0. Envelope Theorem df ∗ (θ) ∂f (x∗ (θ), θ) =. dθ ∂θ Für die Einhüllende f ∗ (θ) ist die totale Ableitung gleich der partiellen Ableitung. - Den Namen verdankt das Theorem der Tatsache, dass f ∗ (θ) die Einhüllende der Kurvenmenge {f (x, θ), x ∈ [x, x̄]} darstellt. 26 / 27 Zusammenfassung - Stetige Zielfunktionen nehmen auf kompakten Entscheidungsmengen ein Maximum an. - Eindeutige Maxima existieren für konkave Zielfunktionen auf konvexen Entscheidungsmengen. - Die Parallelität der Gradienten von Zielfunktion und Nebenbedingung ist eine notwendige (und oft hinreichende) Bedingung für die Bestimmung der Maxima von eingeschränkten Optimierungsproblemen. - Bei konkaver Zielfunktion steigt (fällt) die optimale Entscheidung mit einem Parameter, wenn dieser den marginalen Eekt der Entscheidungsvariablen vergrössert (verkleinert). 27 / 27