Skript Critical Thinking-101-120 PDF

Summary

This document provides an overview of critical thinking, covering topics such as digital competence, social engineering, and the two systems of thinking. It details cognitive biases and their impact on decision-making, using examples like the "mere exposure effect," and "halo effect."

Full Transcript

Skriptum Critical Thinking-101-120.pdf Digitalkompetenz und Medienkompetenz Das Thema Digitale Kompetenz umfasst verschiedene Detailkompeten- zen wie Interpretationsfähigkeit, soziale Intelligenz, adaptives Denken, in- terkulturelle Kompetenz und digitales Denken. Medienkompetenz ist...

Skriptum Critical Thinking-101-120.pdf Digitalkompetenz und Medienkompetenz Das Thema Digitale Kompetenz umfasst verschiedene Detailkompeten- zen wie Interpretationsfähigkeit, soziale Intelligenz, adaptives Denken, in- terkulturelle Kompetenz und digitales Denken. Medienkompetenz ist ein wesentlicher Teil von Digitalkompetenz und kann in Medieneinsatz, Medienanwendung und Medienkunde unterteilt werden. Digitale Kollaboration und digitale Mediengestaltung sind Teil der Me- dienanwendung, während Medienkunde in Bereiche wie digitales Recht, digitale Literacy, digitale Identität und digitale Sicherheit unterteilt wer- den kann. Digitale Literacy umfasst die Fähigkeit zur kritischen Prüfung von Infor- mationen aus dem Internet, was bei der Verwendung von Informationen aus sozialen Netzwerken häufig nicht erfüllt wird. Social Engineering und Phishing Social Engineering und Phishing sind Bedrohungen, die durch den Men- schen auf IT-Systeme zugegriffen werden können, und es ist wichtig, sich vor diesen Angriffen zu schützen. Bei der Analyse der Qualität von Informationen sind Kriterien wie Plausi- bilität, unmittelbare Bezugsquelle, Originalquelle, Interesse der Verfasser, Existenz von weiteren Quellen, Kontext der Informationen und Qualifika- tion der Verfasser wichtig. Critical Thinking 101 Das Kapitel “Critical Thinking 101” beschreibt die zwei Arten des Denkens, “System 1” und “System 2”, und erläutert typische Anwen- dungsbeispiele für langsames und schnelles Denken. Es werden auch Gründe für den fehlenden Einsatz von bewusstem und konzentriertem Denken angeführt und erklärt, sowie Ursachen und Fol- gen von kognitiver Leichtigkeit und deren Zusammenhang zu Denkfehlern erläutert. Der “Mere-Exposure-Effekt”, der “Halo-Effekt” und das “What you see is all there is (WYSIATI)-Prinzip” werden als Denkfehler beschrieben und ihre Folgen erläutert. Weitere Denkfehler wie Ankereffekt, emotionales Framing, Besitztumsef- fekt, Plausibilität vor Logik und Ergebnisverzerrung werden charakter- isiert und typische Anwendungsbeispiele erläutert. Die Unterscheidung zwischen dem erlebenden Selbst und dem erinnernden Selbst wird erläutert und ihre Auswirkungen dargestellt, sowie Fehler in der menschlichen Erinnerung beschrieben und ihre Auswirkungen dargestellt. 1 System 1 und System 2 Das menschliche Gehirn verfügt über zwei Denkmodi: System 1 und Sys- tem 2, die von den Psychologen Keith Stanovich und Richard West einge- führt wurden. System 1 arbeitet automatisch und schnell, ohne willentliche Steuerung, und ermöglicht intuitive Interpretationen, wie beispielsweise die Erken- nung von Emotionen in einem Gesicht. System 2 hingegen lenkt die Aufmerksamkeit auf anstrengende mentale Aktivitäten, wie komplexe Berechnungen, und geht oft mit dem subjek- tiven Erleben von Handlungsmacht, Entscheidungsfreiheit und Konzen- tration einher. Ein Beispiel für die Unterschiede zwischen System 1 und System 2 ist die Müller-Lyer-Illusion, bei der das Gehirn automatisch eine Linie als länger wahrnimmt, obwohl sie tatsächlich gleich lang ist wie die andere Linie. Um die Illusion zu überwinden, muss System 2 aktiviert werden, indem man beispielsweise mit einem Lineal misst und die Ergebnisse bewusst verarbeitet. Intuitives Denken vs. Willentliches Denken Eine entscheidende Frage im Kontext des kritischen Denkens ist, wann man anfängt, seinem intuitiven Denken (System 1) zu misstrauen und stattdessen auf das willentliche, aber anstrengendere System 2 zurückzu- greifen. Die Übung am Ende des Textes zeigt, wie wichtig es ist, zwischen System 1 und System 2 zu unterscheiden, indem man eine Denkaufgabe löst, die zunächst intuitiv beantwortet wird, aber letztendlich eine logische Analyse erfordert. Die richtige Antwort auf die Denkaufgabe “Anne, Philipp und Georg” ist A, die durch das Prüfen aller möglichen Fälle (Anne ist verheiratet oder nicht) ermittelt wird. Die meisten Menschen neigen dazu, die erste Antwort, die ihnen in den Sinn kommt (in diesem Fall C), zu wählen, ohne die verschiedenen Möglichkeiten zu berücksichtigen, da der kognitive Aufwand zu groß ist. Dieses Phänomen wird als “disjunktives Nachdenken” bezeichnet, das be- deutet, dass man alle möglichen relevanten Zustände der Welt berück- sichtigen muss, bevor man eine Option wählt. Keith Stanovich und seine Kollegen verwenden diese Denkaufgabe als Test, um das disjunktive Nachdenken genauer zu untersuchen. Obwohl das disjunktive Nachdenken eine allgemeine Strategie des Denkens ist, vermögen die meisten Menschen in vielen Situationen nicht, sie anzuwenden, es sei denn, sie werden dazu angewiesen. Die Schwierigkeit besteht darin, zu erkennen, wann man seiner Intuition nicht trauen darf und sie überprüfen muss, um nicht in die Irre geführt zu werden. 2 Das faule System 2 Es ist wichtig, nicht in jeder Situation die Intuition zu unterdrücken, da dies zu ineffizientem Reagieren im Alltag führen würde. System 2, das durchaus in der Lage ist, komplexe Denkaufgaben zu lösen, wird nicht immer verwendet, da es anstrengend ist, wie Daniel Kahneman es als “das faule System 2” beschreibt. Ein Beispiel für die Anstrengung, die System 2 erfordert, ist die Denkauf- gabe “Ein Schläger und ein Ball kosten 1,10 Dollar”, bei der die intuitive Antwort (10 Cent) falsch ist und die richtige Antwort (5 Cent) durch Berechnung ermittelt werden muss. Die intuitive Antwort auf eine Frage kann oft falsch sein, wie anhand des Schläger-und-Ball-Problems und eines logischen Arguments gezeigt wird, bei dem die Mehrheit der Studenten an Universitäten wie Harvard University, MIT und Princeton University die falsche Antwort gibt. Die Ergebnisse dieser Experimente sind erschreckend, da über 50 Prozent der Studenten die intuitive, aber falsche Antwort wählen, was darauf hin- deutet, dass sie kognitive Anstrengung meiden und sich der Intuition nicht widersetzen können. Das logische Argument, das vorgestellt wird, lautet: “Alle Rosen sind Blu- men. Einige Blumen verwelken schnell. Deshalb verwelken einige Rosen schnell.” Dieses Argument wird von der Mehrheit der College-Studenten als gültig eingestuft, obwohl es tatsächlich nicht stichhaltig ist. Die Ursache für das Scheitern bei solchen Tests liegt nicht an unzureichen- den kognitiven Fähigkeiten, sondern an unzureichender Motivation, da die meisten Menschen in der Lage wären, die Fragen logisch durchzudenken und zur richtigen Lösung zu gelangen. Die Frage, warum Menschen “faul” oder “wenig motiviert” sind, auf das System 2 zurückzugreifen, ist eng mit der Frage verbunden, woran das kritische Denken scheitert. Kognitive Leichtigkeit Das Konzept der “kognitiven Leichtigkeit” spielt eine wichtige Rolle bei der Interpretation von Situationen und kann durch verschiedene Faktoren wie wiederholte Erfahrung, geprimte Vorstellung oder gute Laune entstehen. Kognitive Leichtigkeit kann ein Feind des kritischen Denkens sein, da sie dazu führt, dass Menschen etwas, das wahr erscheint, sich gut anfühlt und auch mühelos erscheint, nicht kritisch hinterfragen. Der Effekt der kognitiven Leichtigkeit ist vielschichtig und kann zu einer wohlwollenden Einstellung und einer mangelnden Bereitschaft führen, kri- tisch zu denken. Unternehmen mit einfachen Namen werden in der ersten Woche nach ihrem Börsengang am Markt höher bewertet als andere, auch wenn dieser Effekt mit der Zeit verschwindet. Aktien mit leicht auszusprechenden Handelssymbolen haben eine bessere 3 Wertentwicklung als diejenigen mit zungenbrecherischen Kurzbezeichnun- gen. Eine Studie in der Schweiz ergab, dass Investoren glauben, Aktien mit flüssigen Namen wie Emmi, Swissfirst und Comet würden höhere Ren- diten abwerfen als solche mit sperrigen Bezeichnungen wie Geberit und Ypsomed. Der Mere-Exposure-Effekt Der Mere-Exposure-Effekt beschreibt den Zusammenhang zwischen der Wiederholung eines Reizes und der entsprechenden positiven Einstellung von Menschen. Ein Experiment von Daniel Kahneman zeigte, dass Wörter, die häufiger wiederholt wurden, positiver bewertet wurden als Wörter, die nur ein- oder zweimal gezeigt wurden. Der Halo-Effekt Der Halo-Effekt ist ein Denkfehler, bei dem von einer einzigen positiven Eigenschaft einer Person auf weitere Eigenschaften geschlossen wird. Ein Beispiel für den Halo-Effekt ist das Unternehmen Cisco Systems, das von Wirtschaftsjournalisten zunächst als perfektes Unternehmen dargestellt wurde, aber nach einem Aktienverlust von 80 % plötzlich als schlechtes Unternehmen wahrgenommen wurde, obwohl sich die Strategie und der CEO nicht geändert hatten. Der Halo-Effekt besagt, dass wir uns von einem Aspekt blenden lassen und von ihm auf das Gesamtbild schließen. Der Halo-Effekt beschreibt ein Phänomen, bei dem Menschen aufgrund von einfach zugänglichen oder plakativen Fakten über eine Sache oder Person Rückschlüsse auf schwerer zu eruierende Eigenschaften ziehen. Der Halo-Effekt funktioniert unbewusst und wird oft in der Werbung einge- setzt, indem Prominente für Produkte werben, obwohl sie keine Experten auf diesem Gebiet sind. What you see is all there is (WYSIATI) Eine wichtige Eigenschaft unseres Denkens ist, dass wir nur Informationen verwenden, die gerade verfügbar sind, was als “What you see is all there is” (WYSIATI) bezeichnet wird. System 1, ein Teil unseres Denkens, ist ausgezeichnet darin, aus den vorhandenen Informationen die bestmögliche Geschichte zusammenzuset- zen, aber es kann keine Informationen berücksichtigen, die es nicht hat. Eine Studie an der Stanford University zeigte, dass Menschen auch dann einseitige Informationen verwenden, wenn sie wissen, dass diese unvoll- ständig sind. 4 In der Studie wurden den Teilnehmern rechtliche Sachverhalte präsentiert und sie sollten auf Grundlage dieser Informationen eine Entscheidung tr- effen. Die Studie zeigt, dass Menschen oft aufgrund von unvollständigen Infor- mationen Entscheidungen treffen und dass System 1 unempfindlich für die Qualität und Quantität der Informationen ist. Der Autor Daniel Kahneman wird zitiert, der das Prinzip des WYSIATI beschreibt und betont, dass unser Denken oft von diesem Prinzip beein- flusst wird. Der Halo-Effekt und das WYSIATI-Prinzip sind wichtige Aspekte des kri- tischen Denkens, da sie uns dazu bringen können, vorschnelle Urteile zu fällen und unvollständige Informationen zu verwenden. Der Text beschreibt ein Experiment, bei dem Probanden die Argumente eines Anwalts des Gewerkschaftsvertreters und eines Anwalts des Un- ternehmens hörten, um die Festnahme eines Gewerkschaftsvertreters zu beurteilen. Die Ergebnisse zeigten, dass die Probanden, die nur einseitige Informatio- nen erhielten, sich ihrer Urteile sehr viel sicherer waren als diejenigen, die beide Seiten hörten, obwohl die Anwälte keine nützlichen Informationen vermittelten, die nicht aus der Hintergrundgeschichte entnommen werden konnten. Dieses Phänomen wird durch das Prinzip des WYSIATI (What You See Is All There Is) erklärt, das besagt, dass die Stärke der inneren Überzeu- gung von der Kohärenz der Geschichte abhängig ist, die man aus den verfügbaren Informationen konstruieren kann. Die Konsistenz der Informationen, nicht ihre Vollständigkeit, ist das, was für eine gute Geschichte maßgeblich ist, und es ist leichter, alles, was man weiß, in ein kohärentes Muster einzupassen, wenn man wenig weiß. Das Prinzip des WYSIATI kann eine lange Liste von Denkfehlern erklären, darunter den Denkfehler der Selbstüberschätzung, bei dem die Menge und die Qualität von Informationen sich nicht nennenswert auf den Grad der subjektiven Überzeugung auswirken. Denkfehler und Entscheidungsfindung Eine weitere Ursache für Denkfehler ist die Tendenz, schwierige Fragen durch einfachere Fragen zu ersetzen, wie in Tabelle 5 gezeigt wird, die Beispiele für schwierige Ziel-Fragen und mögliche einfachere Fragen en- thält. Kritisches Denken sollte sich durch Nachvollziehbarkeit, logische Schlüsse und möglichst objektive Beurteilung von Informationen auszeichnen, und Sätze, die auf Denkfehlern basieren, sollten vermieden werden. In diesem Kapitel werden typische Denkfehler behandelt, die bei Entschei- dungen auftreten können. Eine Übersicht über diese Denkfehler ist in Abbildung 22: Entscheidungs- fehler dargestellt. 5 Der Ankereffekt Ein wichtiger Denkfehler ist der Ankereffekt, bei dem Informationen im Vorfeld den Denkprozess beeinflussen, unabhängig von deren tatsächlicher Bedeutung. Ein Experiment von Daniel Kahneman und anderen Forschern zeigt, dass ein manipuliertes Glücksrad die Schätzung von Teilnehmern über den Prozentsatz afrikanischer Staaten in den Vereinte Nationen beeinflusst. Die Teilnehmer, die die Zahl 10 sahen, schätzten den Prozentsatz auf durchschnittlich 25%, während die Teilnehmer, die die Zahl 65 sahen, ihn auf durchschnittlich 45% schätzten. Der Ankereffekt hat enorme praktische Auswirkungen, zum Beispiel kann ein “utopischer Wunschpreis” zu Beginn einer Verhandlung den ersten Anker setzen. Emotionales Framing und andere Denkfehler Ein weiterer Denkfehler ist das emotionale Framing, bei dem die Gefühle, die durch Formulierungen hervorgerufen werden, die Einschätzung von Informationen beeinflussen. Ein Experiment an der Harvard Medical School zeigt, dass die For- mulierung von statistischen Daten über die Ergebnisse von Behand- lungsmethoden für Lungenkrebs die Entscheidung von Ärzten beeinflussen kann. Weitere Denkfehler, die in diesem Kapitel behandelt werden, sind der Endowment-Effekt, Plausibilität vor Logik, Ergebnis-Verzerrung und an- dere. Der Framing-Effekt Der Framing-Effekt beschreibt, wie unterschiedliche Formulierungen von Informationen unsere Entscheidungen beeinflussen können, selbst wenn die Informationen logisch äquivalent sind. Ein Beispiel dafür ist ein Experiment, bei dem Ärzten und Laien die Über- lebensrate bzw. Sterblichkeitsrate nach einer Operation mitgeteilt wurde, wobei die Formulierung einen signifikanten Einfluss auf die Entscheidung für oder gegen die Operation hatte. Die Ergebnisse zeigten, dass 84% der Ärzte sich für die Operation entschieden, wenn die Überlebensrate von 90% genannt wurde, während nur 50% sich für die Operation entschieden, wenn die Sterblichkeitsrate von 10% genannt wurde. Dieser Effekt tritt auch bei Fachleuten auf, wie das Experiment zeigt, dass Ärzte genauso anfällig für den Framing-Effekt waren wie medizinisch ungebildete Laien. 6 Der Endowment-Effekt Der Endowment-Effekt beschreibt, wie wir Dinge, die wir besitzen, mit einem höheren Wert beurteilen als Dinge, die wir nicht besitzen. Ein Beispiel dafür ist die Geschichte von jemandem, der einen Gebraucht- wagen für 40.000 Euro kaufte und später ein Angebot von 53.000 Euro ablehnte, obwohl er den Wagen ursprünglich nur für 40.000 Euro wert hielt. Der Psychologe Dan Ariely hat ein Experiment durchgeführt, bei dem Studenten, die Eintrittskarten zu einem Basketballspiel gewonnen hatten, mehr Geld für die Karten verlangten, als sie selbst dafür ausgeben würden, wenn sie die Karten nicht besessen hätten. Der Endowment-Effekt zeigt, dass wir tendenziell mehr Geld für etwas verlangen, wenn wir es besitzen, als wir selbst dafür ausgeben würden, wenn wir es nicht besitzen. Der Endowment-Effekt besagt, dass Menschen einem Objekt mehr Wert beimessen, wenn sie es besitzen oder fast besitzen, wie es bei Auktion- shäusern wie Christie’s und Sotheby’s zu beobachten ist. Ein Experiment zeigt, dass Studenten, die eine Karte gewonnen haben, bereit sind, sie für durchschnittlich 2.400 Dollar zu verkaufen, obwohl der ursprüngliche Preis bei etwa 170 Dollar lag. Der Endowment-Effekt kann auch den Fast-Besitz betreffen, wie bei Auk- tionen, wo der letzte Bieter das Gefühl hat, das Objekt bereits zu besitzen. Plausibilität vor Logik Plausibilität kann Logikregeln außer Kraft setzen, wenn Informationen durch plausible Verbindungen verknüpft werden, wie im Fall der Beschrei- bung von Linda. Die Beschreibung von Linda zeigt, dass Menschen eher dazu neigen, eine kohärente Geschichte zu glauben, als die Logik der Wahrscheinlichkeit zu berücksichtigen. Die Menge umweltschützender Bankkassiererinnen ist vollständig in der Menge der Bankkassiererinnen enthalten, daher muss die Wahrschein- lichkeit, dass Linda eine umweltschützende Bankkassiererin ist, niedriger sein als die Wahrscheinlichkeit, dass sie eine Bankkassiererin ist. Der Denkfehler der Repräsentativität zeigt, dass Menschen gegen Regeln der Logik verstoßen, wenn sich die alternative Geschichte durch eine hohe Plausibilität auszeichnet. Für kritisches Denken ist es wichtig, auch bei plausibel klingenden Zusam- menhängen die Fakten logisch durchzudenken und sich nicht nur auf die “plausible Geschichte” zu verlassen. 7 Der Outcome Bias Der Outcome Bias besagt, dass Entscheidungen nicht nur nach ihrem Ergebnis, sondern nach dem Entscheidungsprozess beurteilt werden soll- ten. Ein Gedankenexperiment mit Affen, die an der Börse spekulieren, zeigt, dass der Outcome Bias dazu führen kann, dass Menschen Entscheidungen aufgrund des Ergebnisses und nicht aufgrund des Prozesses beurteilen. Der Outcome-Bias ist ein Denkfehler, bei dem Entscheidungen anhand des Ergebnisses bewertet werden, anstatt aufgrund des Entschei- dungsprozesses. Dieser Fehler wird illustriert durch die Geschichte von Affen, die Aktien anlegen und nach 20 Jahren nur ein Affe immer richtig investiert hat, obwohl es sich um reines Glück handelt. Die Medien würden sich auf diesen “Erfolgsaffen” stürzen, um seine “Erfol- gsprinzipien” zu ergründen, und würden wahrscheinlich falsche Schlussfol- gerungen ziehen. Es ist wichtig, Entscheidungen nicht nur aufgrund des Ergebnisses zu be- werten, sondern auch den Entscheidungsprozess zu betrachten. Ein schlechtes Ergebnis bedeutet nicht automatisch, dass die Entscheidung schlecht getroffen wurde, und umgekehrt. Es ist ratsam, sich noch einmal vor Augen zu halten, warum eine Entschei- dung getroffen wurde, und ob sie aus vernünftigen, nachvollziehbaren Gründen erfolgte. Auch in der Praxis ist es verlockend, anzunehmen, dass ein positives Ergeb- nis aufgrund eines richtigen Weges erzielt wurde, aber dies muss nicht der Fall sein. Der Prozess sollte bewusst betrachtet und hinterfragt werden, um sicherzustellen, dass die Entscheidung auf soliden Gründen basiert. Stage Migration Ein weiterer Denkfehler ist die “Stage Migration”, bei der das durchschnit- tliche Ergebnis von allen Detailgruppen durch Umschichtung besser wird, aber keine insgesamte Verbesserung stattgefunden hat. Erfahrung und Gedächtnis Erfahrung und Gedächtnis können auch mit Fehlern belegt sein, wie Daniel Kahneman zwischen dem erlebenden Selbst und dem erinnernden Selbst unterscheidet. Diese beiden “Selbst” kommen nicht zur gleichen Bewertung, was bedeutet, dass persönliche Erfahrungen und Erinnerungen mit Vorsicht genossen werden sollten. Die eigene Erfahrung ist zwar wichtig, aber nicht perfekt und kann durch persönliche Geschichtsfälschung beeinflusst werden. 8 Ein Beispiel hierfür ist das Experiment von Gregory Markus, der 3.000 Menschen ihre Haltung zu politischen Thesen befragte und zehn Jahre später erneut befragte, wobei die Angaben über ihre früheren Ansichten fast identisch mit ihren aktuellen Ansichten waren, aber nicht mit ihren tatsächlichen Ansichten aus dem Jahr 1973 übereinstimmten. Auch sogenannte Flashbulb Memories, also sehr lebhaft und detailliert erinnerte Ereignisse, sind nicht fehlerfrei, sondern das Ergebnis von Rekon- struktionen, wie das Experiment von Ulric Neisser nach der Explosion des Space Shuttles Challenger im Jahr 1986 zeigte. In diesem Experiment stimmten weniger als 7 % der zweiten Angaben der Studenten mit den ersten überein, und 50 % waren falsch in zwei Dritteln der Punkte. Die Frage, warum sich Blitzlichterinnerungen so richtig anfühlen, ist noch nicht geklärt. Unsere Erinnerungen sind mit Fehlern behaftet, was Konsequenzen haben kann, wie zum Beispiel bei Augenzeugenberichten oder Phantombildern zur Identifizierung von Straftätern. Es ist daher fahrlässig, solchen Berichten ohne ergänzende Untersuchungen zu vertrauen. Zusammenfassung Zusammenfassend kann gesagt werden, dass menschliches Denken in zwei Arten ablaufen kann: System 1 arbeitet automatisch und schnell, während System 2 mit Anstrengung verbunden ist und willentlich aktiviert werden muss. Die Benutzung von System 2 benötigt mehr Anstrengung als System 1, was der Grund dafür sein kann, dass an sich lösbare Aufgaben nicht korrekt durchdacht und gelöst werden. Verschiedene Faktoren, wie wiederholte Erfahrung oder gute Laune, kön- nen kognitive Leichtigkeit auslösen, was zu Fehlern im Denken führen kann. 9

Use Quizgecko on...
Browser
Browser