Empirical Methods in Sustainable Finance PDF
Document Details
Uploaded by Deleted User
Justus Liebig Universität Gießen
Tags
Summary
This document is a lecture or presentation on empirical methods in sustainable finance, specifically addressing causality, counterfactuals, and directed acyclic graphs (DAGs). Information and examples are provided.
Full Transcript
Empirical Methods in Sustainable Finance Kausalität 1 – Counterfactuals, DAGs und Konfundierung Einbettung Wir erklären die Wirklichkeit durch DN-Erklärungen Aber wissen schon, dass es verschiedene Arten von DN-Erklärungen gibt – Nullmodelle vs. zusammenhangsbasierte...
Empirical Methods in Sustainable Finance Kausalität 1 – Counterfactuals, DAGs und Konfundierung Einbettung Wir erklären die Wirklichkeit durch DN-Erklärungen Aber wissen schon, dass es verschiedene Arten von DN-Erklärungen gibt – Nullmodelle vs. zusammenhangsbasierte Modelle – Vorzugsweise schätzen wir für zusammenhangsbasierte Modelle eine Regressionsformel Zusammenhangsbasierte Modelle können kausal sein oder nicht Wir beginnen heute damit zu verstehen, was Kausalität bedeutet Fahrplan Wir werden klären, dass etwas kausal für Y ist, wenn es eine notwendige Bedingung für Y ist Wir werden daraus herleiten, dass wir für Kausalanalysen immer eine faktische Situation mit einer kontrafaktischen Fantasiesituation vergleichen müssen Wir werden DAGs kennen lernen, mit deren Hilfe sich Kausalität und Kausalketten „einfach“ als Pfeildiagramm darstellen lassen Wir werden über einige erste DAGs reden, insbesondere über Mediationen und die Frage von Exogenität vs. Endogenität Wir werden argumentieren, dass wir aufgrund von Unobservables anhand von reinen Korrelationen niemals so ohne weiteres Kausalität ableiten können, sondern stets ein weiteres Argument benötigen, warum eine Beobachtung auch kausal ist Ursachen Was ist eigentlich eine „Ursache“? Vorschlag: Eine Ursache ist eine notwendige Bedingung – X ist eine notwendige Bedingung für Y, wenn eine bestimmte Ausprägung von Y nur dann vorliegen kann, wenn auch eine bestimmte Ausprägung von X vorliegt – Anders gesagt: Wäre X anders, wäre auch Y anders, WEIL X anders ist Vergleich faktisches vs. kontrafaktisches Szenario Die Systematik in einer DN-Erklärung ist bei Kausalität also nicht nur irgendein zufällig auftretender Zusammenhang, sondern eine Art (Natur-)Gesetz, das eine notwendige Bedingung beinhaltet Counterfactuals Um X als Ursache für Y zu identifizieren, müssen wir also eine faktische mit einer kontrafaktischen Situation vergleichen Aber offensichtlich können wir pro Untersuchungseinheit immer nur eine Situation betrachten, nämlich die faktische – Entweder ich nehme ein Medikament, oder ich nehme es nicht Damit ist Kausalität nie direkt beobachtbar – „Fundamental Problem of Causal Inference“ (Holland 1986) Wir können aber auf Kausalität rückschließen, wenn wir ein plausibles hypothetisches (!) Counterfactual schätzen können, und dieses mit dem faktisch Passierten vergleichen – Viel von dem, was wir später zu kausaler Inferenz lernen, sind Methoden, mit denen plausible Counterfactuals erzeugt oder geschätzt werden – Implikation am Rande: Wenn wir Kausalität untersuchen, können wir nie die Grundgesamtheit untersuchen Diese würde ja die Counterfactuals einschließen, aber die können wir ja nicht erheben → alle Daten sind immer Stichproben Warum ist Kausalität eigentlich so wichtig? Zunächst einmal ist Kausalität zu identifizieren ein wissenschaftliches Ziel als solches Zweitens ermöglicht Kausalität Kontrolle über Y Drittens ist Kausalität der zuverlässigste epistemische Grund, einen empirischen Sacherhalt für richtig zu halten – Epistemische Gründe: Gründe, die rechtfertigen, warum man an die Wahrheit von etwas glaubt Anderer Ansatz: Das Wort „warum“ hat zwei Bedeutungen – „Warum ist etwas so?“ Das fragt nach einer Eigenschaft der Wirklichkeit → Kausalität – „Warum sollte ich etwas für wahr halten?“ Das fragt nach der Begründung für eine subjektive Überzeugung → Epistemischer Grund Kausalität als epistemischer Grund Wenn ein Zusammenhang tatsächlich kausal ist, dann sind alle Schlussfolgerungen auf bisher unbeobachtete Untersuchungseinheiten auch garantiert wahr – Anders gesagt: Die Wahrheitsübertragung ist garantiert solange keine anderen Zusammenhänge meinen untersuchten Zusammenhang überlagern – Diese Bedingung nennen wir Ceteris paribus „garantiert“ im statistischen Sinne Wenn Zusammenhänge hingegen nicht kausal sind, ist die Wahrheitsübertragung auf Schlüsse aus diesen Zusammenhängen nicht garantiert – Nicht-kausale Zusammenhänge nennt man auch (verwirrenderweise) Korrelation Das heißt nicht, dass Schlüsse aus Korrelationen automatisch falsch sind, aber sie sind eben nicht garantiert wahr – Anders gesagt: Auch nicht-kausale DN-Erklärungen können hilfreich sein Damit ist Kausalität aber der zuverlässigste epistemische Grund – „Ich glaube, dass Aussage X wahr ist, weil Aussage X aus einer Kausalität folgt“ Daher suchen wir bevorzugt nach DN-Erklärungen, deren Zusammenhang ein Kausalzusammenhang ist Kausalität bei Vorhersagen Oft nutzen wir statistische Modelle, um Dinge vorherzusagen – Das nennen wir Prediction Wetter, Aktienkurse, Katzenfotos, LLMs wie ChatGPT, … (Alles, was verbreitete KIs Stand heute machen, sind Predictions basierend auf statistischen Modellen) Predictions benötigen natürlich auch epistemische Gründe Kausale Variablen sind die zuverlässigsten epistemischen Gründe für die Vorhersage, aber nicht unbedingt die wichtigsten – Ein Zusammenhang kann kausal sein, aber so schwach, dass er fast egal ist Dann sind stärkere Korrelationen für die Treffsicherheit einer Vorhersage oft besser – Oder sie sind in der Praxis einfach irrelevant Was bringt uns das Wissen, dass ein nuklearer Winter kausal das Wetter beeinflusst, für die Vorhersage des Wetters am kommenden Wochenende? Und wir brauchen auch nicht unbedingt kausale Zusammenhänge, Korrelationen reichen oft – Eine KI, die Katzenfotos erkennt, muss nicht wissen, warum etwas ein Katzenfoto ist Es ist egal, welche epistemischen Gründe sie hat, ein Bild als Katzenfoto zu kategorisieren, solange sie es nur korrekt identifiziert → Kausalität garantiert Zuverlässigkeit, aber nicht unbedingt Relevanz → Prediction ohne Kausalität ist aber immer riskant Beispiel: Google Flu Trends Kausale Diagramme (DAGs) Ein nützliches Tool, um Kausalität darzustellen, sind sogenannte DAGs – Directed Acyclic Graphs DAGs sind Pfaddiagramme zwischen Variablen, wobei gerichtete Pfeile die Richtung der Kausalität angeben – Keine Doppelpfeile, keine ungerichteten Linien (Diese Regeln werden wir später aber oft brechen) – Fehlende Pfeile zeigen die Abwesenheit von Kausalität an X Y A B Kausalketten und Mediatoren Wir nehmen an, dass Kausalität transitiv ist – Wenn X eine Ursache für M ist… – … und M eine Ursache für Y ist… – … ist X auch eine Ursache für Y X M Y In einem solchen Fall nennen wir M einen Mediator, und den Pfad/Path über M nennen wir auch den (M-)Kanal/Channel oder den (M-)Mechanismus/Mechanism Den gesamten Weg von X bis Y (also alle Pfade zusammen) nennen wir Kausalkette Mehrere Mediatoren Selbstverständlich kann es mehrere Mediatoren geben 𝑀1 X Y 𝑀2 Und selbstverständlich kann X auch gleichzeitig direkt und indirekt auf Y wirken – Indirekt: Die Wirkung geht über einen Mediator – Direkt: Wirkung ohne Mediator 𝑀1 – Alles zusammen ergibt den totalen Effekt X Y von X auf Y 𝑀2 Aggregationsebenen Unsere Fragestellung bestimmt, auf welcher Aggregationsebene wir uns bewegen Es ist jederzeit möglich, Kombinationen aus Pfaden und Variablen zu höherleveligen Variablen zu aggregieren, oder Mediatoren wegzulassen Umgekehrt kann man Pfade jederzeit differenzieren, indem weitere Konstrukte und Pfeile hinzugefügt werden – Aber Achtung: Pfeile darf man nur innerhalb der zusammengefassten Pfade weglassen, niemals zwischen den zusammengefassten und den nicht- zusammengefassten Pfaden! Aggregationsebenen Beispiel (1) Hohe Aggregationsebene Langfristige Langfristiger CEO- Aktienkurs Vergütung Etwas differenzierter: Ein benannter Kanal und ein „Rest“-Pfad Langfristige Langfristigere Langfristiger CEO- Orientierung Aktienkurs Vergütung Sonstige Gründe Aggregationsebenen Beispiel (2) Noch etwas komplexer: Ein sich verzweigender Mechanismus Projekt 1 Langfristige Langfristigere CEO- Orientierung Vergütung Projekt 2 Langfristiger Weitere Aktienkurs Projekte Sonstige Gründe Transitivität vs. Erklärungskraft Ein Problem ist ein gewisser Widerspruch zwischen Transitivität und „Erklärungskraft“ Beispiel: Wenn man in der Kausalkette immer weiter zurückgeht, landet man immer bei zufälligen Schwankungen während des Urknalls als Ursache für alles (wirklich alles) – Transitivität erlaubt das – Aber das ist irgendwie keine gute Erklärung, und auch nicht hilfreich für Vorhersagen – Das Problem scheint nahezulegen, dass besonders Ursachen interessant sind, die in der Kausalkette möglichst nahe an der abhängigen Variablen sind Aber, anderes Beispiel: Warum brennt eigentlich eine Lampe? – „Weil der Lichtschalter betätigt wurde“ vs. „weil der Lichtschalter betätigt wurde, was Elektron 1 bewegt, was Elektron 2 in Bewegung setzt, …, was Elektron N in Bewegung setzt, was ausreicht, um Licht zu erzeugen“ Erklärung 2 scheint irgendwie unnötig detailliert → Es scheint so etwas wie einen „angemessenen Zoom“ sowie eine „angemessene Länge“ der Kausalkette zu geben – Aber niemand weiß, wie man diese zuverlässig findet – Ihr müsst genug von dem, was ihr untersucht, verstehen, um das Angemessene zu finden Kausalketten und Exogenität Wir können die Idee der Kausalkette nutzen, um besser zu verstehen, was eigentlich Exogenität und Endogenität bedeuten – Dazu müssen wir allerdings „cheaten“, und das DAG-Framework erweitern um Links, die reine Korrelationen darstellen – Außerdem werde ich die UVs unseres Hauptzusammenhangs nun dunkelgrün darstellen Nehmen wir an, wir wollen den Zusammenhang zwischen X und Y untersuchen, und fragen uns, ob X exogen ist, oder ob eine Drittvariable Z dafür sorgt, dass X endogen ist – (Daraus sehen wir direkt: „Endogen“ und „exogen“ sind immer mit Bezug auf einen zu untersuchenden Zusammenhang zu verstehen X ist endogen für manche Zusammenhänge, und exogen für andere) X ist immer dann endogen, wenn irgendein Z mit X und Y gleichzeitig zusammenhängt, AUSSER Z wird selbst von X kausal verursacht, ohne selbst X zu verursachen – Anders gesagt: Wann immer ein Z „stromaufwärts“ vor X die Kausalkette für X (!) berührt und anschließend noch einmal zwischen X und Y, ist X → Y konfundiert „Endogenisierende“ Variablen, wie hier Z, nennen wir eigentlich konfundierende Variablen bzw. Confounder Man kann sich das so vorstellen, das jede ausgelassene Variable durch die UV im Modell mitgemessen wird → Im Prinzip repräsentiert X dann nicht nur „sich selbst“, sondern ist zusätzlich noch ein Proxy für alles ausgelassene → Wenn die ausgelassenen Variablen für Y relevant sind, messen wir nicht den „reinen“ Einfluss von X, sondern auch den aller ausgelassenen Variablen Beispiele für Exogenität (1) 𝑋2 Z 𝑍2 X Y 𝑍1 𝑋1 Y Annahme für beide Grafiken: Die DAGs sind vollständig Links: X und Z hängen nicht miteinander zusammen, daher sind die beiden Zusammenhänge X → Y und Z → Y exogen Rechts: Die beiden Kausalketten sind nicht miteinander verbunden, daher sind sie zueinander exogen. Dass 𝑋1 selbst durch 𝑍1 verursacht wird, oder dass 𝑋2 nicht direkt, sondern nur indirekt über den Mediator 𝑍2 wirkt, ändert daran nichts Beispiele für Exogenität (2) Energieaus- stoß der Sonne Bildungs- Anzahl der CO2-Steuer system Photonen Treibhausgas- BIP pro Kopf Erdtemperatur ausstoß Drittvariablen können so komplex miteinander zusammenhängen, wie sie wollen – Erst wenn sie mit der Kausalkette für X UND noch ein zweites Mal mit irgendeiner Kausalkette für Y verbunden sind, konfundieren sie Daher konfundiert hier keine der drei Variablen „stromaufwärts“ vom Treibhausgasausstoß Exogenität in der Regression Beispiele für Endogenität (1) Z Z X Y X Y Wir nehmen nach wie vor an, dass unsere Kausaldiagramme vollständig sind Links konfundieren X und Z sich nun gegenseitig, weil sie miteinander korrelieren, auch wenn keine Kausalität zwischen beiden vorliegt Rechts hingegen verursacht Z X, ohne selbst wiederum von X verursacht zu werden, und es gibt auch sonst keine zufällige Korrelation zwischen X und Z – Daher ist X → Y nun durch Z konfundiert – Aber Z → Y nicht durch X Für den Zusammenhang Z → Y ist X ein Mediator, und Mediatoren konfundieren (per definitionem) nicht Beispiele für Endogenität (2) A C E Y B D F Ob ein Zusammenhang endogen ist, hängt davon ab, wo in einer Kausalkette ich starte – Wenn ich den Zusammenhang E → Y untersuche, ist der durch F konfundiert – Wenn ich aber den Zusammenhang A → Y untersuche, ist die gesamte Kette nicht (!) konfundiert, einschließlich des vorher konfundierten Zusammenhangs E → Y E und F sind beides Mediatoren für den Einfluss von A auf Y Beispiel für Endogenität ohne Kausalität Stellt euch vor, ihr untersucht den Einfluss von Wassermenge auf Pflanzenwachstum in einem dunklen Raum – 10 Pflanzen, sortiert von links nach rechts – Je weiter rechts die Pflanze, desto mehr Wasser bekommt sie Nun stellt euch vor, ihr habt ganz rechts ein kleines Fenster – Je weiter rechts eine Pflanze ist, desto mehr Licht bekommt sie Nehmen wir an, ihr findet, dass mehr Wasser zu größeren Pflanzen führt Aber: Je mehr eine Pflanze gewässert wird, desto mehr Licht bekommt sie ab – Obwohl das nicht kausal ist → Wassermenge UND Pflanzenwachstum sind mit Lichteinfall korreliert → Ergo schätzen wir den Einfluss vom Wasser auf das Pflanzenwachstum falsch ein (vmtl. zu stark) Endogenität in der Regression Schreinkorrelation und Überlagerung Folge von Konfundierung Wenn ein Zusammenhang Y ~ X konfundiert ist, verschätzen wir uns im Allgemeinen systematisch, wenn wir nur X und Y im Modell haben – Es sei denn, wir haben unendlich viel Glück, und die Einflüsse der verschiedenen Confounder heben sich exakt auf – Oder die Konfundierung passiert so weit vor Y in der Kausalkette, dass sie im Verlauf der Kette quasi vom Rauschen in den Mediatoren, die zwischen der Konfundierung und Y noch dazu kommen, überschrieben wird Wir reden dann (mal wieder) von einer Verzerrung/Bias – Konkret: Ommited Variable Bias/OVB – Im extremsten Fall gibt es gar keinen echten Zusammenhang zwischen X und Y, dann nennen wir das Scheinkorrelation (Scheinbare) Lösung für OVB: Wenn wir alle potenziellen Confounder messen und statistisch kontrollieren, können wir theoretisch den konfundierten Pfad „bereinigen“ – Wie das mit Regression geht, siehe kommende Vorlesungen – Aber in der Praxis geht das oft nicht wirklich Unobservables und Reversed Causality Erstes Problem: Woher wissen wir eigentlich, dass wir alle potenziellen Confounder im Datensatz haben? – Und woher wissen wir eigentlich, dass wir auch nur alle relevanten Variablen schon kennen? Vielleicht gibt es datengenerierende Prozesse, für die wir noch nicht einmal theoretische Konstrukte haben..? Antwort: Das wissen wir nie! – Unobservables (unbeobachtete Variablen) sind immer potenzielle Confounder → „Correlation does not imply causation“ Aber wie finden wir dann jemals heraus, ob ein Zusammenhang wirklich kausal ist..? Anders gefragt: – Um Kausalität nachzuweisen, müssen wir ein Counterfactual schätzen, das wir dann mit dem, was wirklich passiert ist, vergleichen können – Aber wie können wir je plausible Counterfactuals schätzen, wenn wir doch gar nicht wissen, was bei deren Schätzung alles zu berücksichtigen ist..? → Die Methoden dazu lernen wir in den späteren Vorlesungen kennen Zweites Problem: Woher wissen wir, dass X Y verursacht? Könnte es nicht auch andersherum sein? → Reversed Causality Achtung, Begriffswirrwarr: Oft werden Konfundierung und Reversed Causality gemeinsam als Endogenität bezeichnet, manchmal hingegen ist Endogenität nur ein Synonym für Konfundierung (also ohne Reversed Causality) – Wir werden es im allgemeineren Sinne verwenden Für die Praxis In der Wissenschaft braucht jede kausale Aussage ein Counterfactual – Wenn es keins gibt, aber die Studie trotzdem kausale Sprache verwendet, kritisiert sie dafür – Achtet selbst darauf, keine kausale Sprache („beeinflusst“, „bewirkt“, „verursacht“, „Effekt“, „Wirkung“ etc.) zu verwenden, wenn ihr nur Korrelationen untersucht – Selbst wenn ein Counterfactual geschätzt wurde, prüft immer kritisch, ob es plausibel ist (dazu habt ihr noch nicht die Tools, aber die kommen noch im Laufe der Vorlesung) Auch in der „Praxispraxis“ basiert jede Vorhersage auf einem Modell, und jede kausale Aussage auf einem kontrafaktischen Szenario – Das ist den Praktikern nur normalerweise nicht bewusst Wenn euch nur Prediction interessiert, fokussiert nicht zu sehr auf Kausalität – Ist nützlich, aber nicht unbedingt nötig Jeden Zusammenhang, den ihr untersucht, solltet ihr als DAG darstellen, das hilft extrem beim Denken – Komplexe DAGs können verwirrend sein, aber die Komplexität wäre ohne DAG noch schwerer zu verstehen Bei Endogenität verschätzt ihr euch systematisch. Im Extremfall kann sich das Vorzeichen drehen Extra noch einmal betont: Unobservables solltet ihr immer als potenziell konfundierend interpretieren, und ihr solltet reversed Causality nie einfach so ausschließen → Kein Zusammenhang ist kausal, bis zur plausiblen Argumentation des Gegenteils Zusammenfassung Kausalität 1 X ist kausal für Y, wenn es eine notwendige Bedingung ist. Wir weisen das nach, indem wir die faktisch eingetretene Situation mit einem Counterfactual vergleichen Kausalität ist aus sich heraus wichtig, und Predictions, die auf kausalen Zusammenhängen basieren, sind zuverlässig, aber für reine Predictions ist Kausalität nicht zwingend nötig Kausalität lässt sich in DAG-Form darstellen, was das Denken drastisch vereinfacht – DAGs lassen sich „zoomen“; welcher Zoom angemessen ist, ist die Frage von guter Intuition Z ist für einen Zusammenhang Y ~ X endogen, wenn Z irgendwie mit X und Y gleichzeitig verbunden ist, ohne ein Mediator zu sein Im Zweifelsfall ist eine Unobservable konfundierend, und/oder die Kausalität könnte andersherum gehen → Correlation does not imply causation