Argumentos y Teorías - Unidad 4 PDF

Summary

This document is a chapter on scientific methodology, focusing on the language of scientific theories and different types of terms, like logical, observational, and theoretical terms. It also defines types of statements in science.

Full Transcript

CAPÍTULO 5 LA CUESTIÓN DEL MÉTODO EN LAS CIENCIAS FÁCTICAS 5. 1. El lenguaje de una teoría fáctica. Puede considerarse a una teoría empírica como un conjunto de hipó- tesis de partida y sus consecuencias lógicas (Popper, Bunge, Klimovsky). En este sentido, una teoría es un sistema de enunciado...

CAPÍTULO 5 LA CUESTIÓN DEL MÉTODO EN LAS CIENCIAS FÁCTICAS 5. 1. El lenguaje de una teoría fáctica. Puede considerarse a una teoría empírica como un conjunto de hipó- tesis de partida y sus consecuencias lógicas (Popper, Bunge, Klimovsky). En este sentido, una teoría es un sistema de enunciados, y un enunciado es -a su vez- una oración declarativa que vincula términos. En tanto los términos son los "ladrillos fundamentales del pensamiento científico" (Kli- movsky, 1994), por ellos comenzaremos. Existen tres tipos de términos en una teoría fáctica: Términos lógicos, que constituyen el vocabulario formal de la teoría. ( Por ejemplo "todos", "y", "si...entonces"); su misión consiste en ser enlaces sintácticos. Términos observacionales, que constituyen el vocabulario que se refiere a entidades, propiedades y relaciones observables. (Por ejemplo, "azul", "frío", "más pesado que" ) Términos teóricos, que constituyen el vocabulario teórico de la teoría, vocabulario que se refiere a entidades, propiedades y relaciones no direc- tamente observables. (Por ejemplo, "electrón", "campo eléctrico", "gen"). Los enunciados construidos en el contexto de la teoría contienen tanto términos lógicos como términos no lógicos, entendiendo por tales los que se denominan términos descriptivos o designativos (en la clasificación anterior, Capítulo 5 177 son términos designativos tanto los teóricos como los observacionales). Pueden ser de tres tipos: Enunciados teóricos, que contienen como vocabulario descriptivo únicamen- te términos teóricos. (Por ejemplo: "Los genes tienen dos pares de alelos") Enunciados observacionales, que contienen como vocabulario descripti- vo únicamente términos observacionales (Por ejemplo: "El trozo de papel tornasolado viró al rojo"). Enunciados mixtos (también llamados reglas de correspondencia), que contienen tanto términos teóricos como observacionales (Por ejemplo: "Diferencias en el color de ojos van acompañadas de diferencias en los ge- nes"). Estos enunciados conectan los términos teóricos con la experiencia observable, proporcionan la carga de interpretación empírica, permiten pasar de lo observacional a lo teórico y viceversa. Como ya sabemos, ninguna teoría es un agregado acumulativo de enun- ciados, sino que —según el tipo de afirmaciones y el grado de generalidad- se estructura como un sistema que incluye diferentes estratos. Si deseamos exponer la estructura de una teoría "por niveles", uno de las posibilidades es comenzar por los enunciados particulares más "cercanos" a los hechos, en la medida en que se trata de enunciados de observación. Aclara oportunamente Klimovsky que comenzar por estos "enunciados empíricos básicos" no im- plica necesariamente conferirles el carácter de fundamento sobre y a partir del cual se construye el edificio de la teoría (esto implicaría asumir una postura que fue denominada inductivismo ingenuo, y será expuesta en el próximo capítulo). Veamos este esquema: Nivel 1. Enunciados empíricos básicos: Deben cumplir dos condiciones: a) todos los términos no lógicos que 17S ARGUMENTOS Y TEORÍAS incluyen son empíricos; b) son enunciados singulares o muéstrales (en el sentido estadístico), es decir que se habla de una sola entidad o de un conjun- to finito de ellas (el ejemplo del papel tornasolado en la clasificación anterior puede ilustrar este tipo de enunciados). Nivel 2. Generalizaciones empíricas: Deben cumplir dos condiciones: a) al igual que los enunciados del Nivel 1 no incluyen términos teóricos; b) a diferencia de los enunciados del Nivel 1 no son afirmaciones singulares ni muestras, sino afirmaciones generales que establecen regularidades o uniformidades en conjuntos amplios. (Por ejemplo: "Todos los cuerpos se dilatan con el calor"). Nivel 3. Enunciados teóricos: Deben cumplir la condición básica de contener al menos un término teórico A este nivel pertenecen las hipótesis teóricas puras fundamentales, que no contienen términos empíricos. Las tendencias pesadas de la epistemología contemporánea descartaron a la inducción como mecanismo productor de hipótesis teóricas, por lo que deberíamos invertir el orden. A partir de la invención de esas hipótesis teóricas puras, las ya mencio- nadas reglas de correspondencia o hipótesis mixtas permitirán vincular el contexto teórico del discurso científico con el nivel observable. Aunque será desarrollado en el próximo capítulo, cuando se exponga el método hipotético- deductivo, adelantemos una caracterización del concep- to de hipótesis: Una hipótesis científica es un enunciado conjetural cuyo valor de verdad se ignora. Mientras la hipótesis no sea corroborada o refutada se hallará en "estado de problema". Comenzando por las hipótesis puras fundamentales, estamos en condi- Capítulo 5 179 ciones de exponer el "diseño" o estructura lógica de una teoría empírica. 5.2. Estructura de las teorías empíricas En primer lugar, las teorías empíricas pueden caracterizarse como cálcu- los interpretados. Hemos expuesto el tema de la interpretación de sistemas axiomáticos en el capítulo 4, por lo que sabemos que una teoría axiomáti- ca formal puede tener diversas interpretaciones (modelos), siempre que las entidades del modelo satisfagan a los axiomas. Dicho de otra manera, que la interpretación del sistema sea tal que los enunciados que resultan de los axiomas sean verdaderos. Sobre esta base Frege pudo reducir la aritmética a teoría de conjuntos. Es claro que esta condición formal no basta para considerar como cálculo interpretado a una teoría fáctica. Además es necesaria una condición empíri- ca, es decir, una vinculación con el mundo empírico. Es claro que en la "Con- cepción heredada" una teoría empírica está concebida con la imagen dual de ser, por una parte, una estructura lógica derivativa asimilable a un sistema axiomático y, por la otra, un puente con la realidad a través de la experiencia directa. Es decir, es un cálculo axiomático empíricamente interpretado. Con palabras de Nagel: Convendría distinguir tres componentes en una teoría: l)Un cálculo abstracto que es el esqueleto lógico del sistema explicativo y que define implícitamente las nociones básicas del sistema. 2)Un conjunto de reglas (de correspondencia) que asignan de modo efectivo un contenido empírico al cálculo abstracto, poniéndolo en relación con los materiales concretos de la observación y la experimentación. 3)Una interpretación o modelo del cálculo abstracto que provea a la estructura esque- lética de carne, por así decirlo, en términos de materiales conceptuales o, visualizables más o menos familiares. Nagel, 1991) 180 ARGUMENTOS Y TEORÍAS En este sentido, Popper sostenía que los sistemas teóricos deben estar formulados de un modo claro, definido y riguroso que tienda a la forma de un sistema axiomatizado. Se pretende reunir todos los supuestos que se necesitan —pero sólo éstos-y formar con ellos el ápice del sistema; tales supuestos se suelen llamar los axiomas ( o postulados o proposiciones primitivas; téngase en cuenta que el término axioma no implica aquí que se lo considere verdadero ). Los axiomas se eligen de tal modo que todos los demás enunciados pertenecientes al sistema teórico puedan deducirse de ellos por medio de transformaciones puramente lógicas o matemáticas. (Popper, 1980) Es claro que lo arriba citado implica que Popper concibe al sistema axio- mático —en el caso de las ciencias fácticas- como un sistema de hipótesis. Por eso advierte que no debe considerarse a los axiomas como verdaderos a prio- ri. Si se tratara de axiomas lógicos o matemáticos serían tautologías, pero al conferirles el carácter de hipótesis su verdad o falsedad resultará de la con- trastación empírica. En tanto sistema axiomático, un sistema teórico de las ciencias empíricas debe cumplir asimismo con las condiciones de ser consistente e independiente. En cuanto a las relaciones del sistema con el conjunto de la teoría, ios axio- mas deben ser suficientes (para deducir todos los enunciados pertenecientes a la teoría) y necesarios (no deben contener supuestos superfluos). La estructura de una teoría empírica sería, entonces, la que sigue: Comienza con la formulación (invención) de una hipótesis fundamental o de partida; a partir de ella se desarrollará el resto de la estructura teórica. La hipótesis de partida funciona como primera premisa a partir de la cual se construirán deducciones para extraer hipótesis derivadas. De las hipótesis derivadas se inferirán las consecuencias observacionales Capítulo 5 181 que se someterán a contrastacion. Hl Hipótesis fundamental Deducción H2 H3 H4 Hipótesis derivadas H5 H6 O1 O2 O3 Consecuencias observacionales Es importante advertir que la estructura formal deductiva garantiza la sistematicidad, sin la cual la teoría sería sólo un agregado disperso de enun- ciados. (Klimovsky, 1994) En síntesis, reconociendo la estructura de cálculo interpretado como propio de las teorías científicas fácticas, hay tres condiciones que deben cumplirse: l ) N o puede haber tautologías entre las hipótesis. Recordemos que una tautología es verdadera en cualquier mundo posible, por lo que no aporta información alguna. Si Bertrand Russell tenía razón, la matemática es reducible a la lógica y las verdades matemáticas son verdades lógicas. En lógica "verdad lógica" y "tautología" son nociones equivalentes. Pero una teoría fáctica no puede incluir hipótesis tautológicas, en la medida en que no aportan conocimiento empírico. 2)No puede haber contradicciones en las hipótesis. Así como una hipóte- sis no puede ser una trivialidad tautológica, tampoco puede ser falsa para cualquier mundo posible. Esto rige tanto para las hipótesis fundamenta- les como para las derivadas. Si de una hipótesis fundamental deducimos simultáneamente A y no-A, la teoría es inconsistente. 3)La teoría debe ser contrastable (es decir, debe poder inferir consecuen- 182 ARGUMENTOS Y TEORÍAS cias observacionales y éstas deben poder confrontarse con los hechos) de lo contrario no es una teoría empírica. A partir de la década del sesenta, la "nueva epistemología" (principal- mente Kuhn) discutió muchas de las posiciones de Popper y otros sobre la estructura de las teorías empíricas. En primer lugar, se produjo un cambio de perspectiva: la interpretación "sincrónica" de la estructura de las teorías cedió paso a una visión "diacró- nica" que pivotea sobre la historia de la ciencia. A Kuhn le interesaban los aspectos dinámicos de las teorías que transitan por diversas etapas: nacen, se desarrollan, mueren o se desalojan mutuamente. Los diversos representantes de esta corriente comparten una nueva visión de la naturaleza y estructura de las teorías científicas. Veamos algunas de las características principales de esta nueva visión. Las teorías empíricas: 1. Son "entidades" complejas y dúctiles, que evolucionan en el tiempo. 2. Como totalidad no pueden calificarse como verdaderas o falsas, aun- que contienen enunciados empíricos verdaderos o falsos. 3. Tienen un componente formal (las leyes o hipótesis) y otro empírico o aplicativo (los sistemas a los que se pretenden aplicar). 4. Cierta parte (núcleo) de estos componentes se considera intocable por razones metodológicas. Ante una contrastación negativa, el nú- cleo siempre se puede salvar modificando los elementos no nucleares (accidentales). No siempre esta caracterización resulta clara. El rechazo y la desconfianza de la epistemología historicista respecto de la formalización de la tradición empirista- lógica y popperiana conduce frecuentemente a la imprecisión, que Capitulo 5 183 era precisamente lo que buscaban evitar los grandes epistemólogos anteriores. La lozanía de nuevas aproximaciones axiomáticas y formales a las teo- rías fácticas permite sospechar que el cambio de perspectiva de la "nueva epistemología" en modo alguno invalidó la posibilidad de nuevos enfoques formales de la estructura de las teorías fácticas. El denominador común de estos nuevos intentos de formaiización consiste en partir de un concepto de axiomatización que se aparta de la perspectiva popperiana que -como los restantes representantes de la "concepción heredada"- utilizaba la lógica de primer orden. Sneed, por ejemplo, emprendió la axiomatización a partir de un uso intuitivo de la teoría de conjuntos. Esto significa que no utilizó un sistema formal de la teoría de conjuntos sino el lenguaje corriente. Patrick Suppes y Wolfgang Stëgmuller adoptaron también este tipo de axiomatiza- ción. Estas cuestiones serán desarrolladas en el último capítulo. 5.3. Concepto de método científico en ciencias fácticas Es necesario distinguir entre el método científico y otras maneras de des- terrar dudas y llegar a establecer creencias estables. "Creer lo que se ve" es uno de ios modos de afianzar una creencia. De esta manera, podemos creer que el sol gira alrededor de la Tierra porque lo "vemos" diariamente surgir por el este y ponerse en el oeste, o podemos recomendar el uso del analgésico X porque desde que lo tomamos no nos duele la cabeza, o podemos comprar el jabón en polvo Z porque damos crédito a la publicidad que muestra cuán- to más blancas quedan las medias blancas cuando se lo usa. A menudo, las creencias así formadas no resisten la prueba de una experiencia más amplia. Si buscamos la nota común en todo método científico, podemos admitir que hay una aspiración a la búsqueda persistente de la verdad, por problemático que resulte el concepto de "verdad": búsqueda orientada por consideracio- nes lógicas. Si deseamos obtener orden y coherencia en nuestras creencias intelectuales, deberíamos recurrir a métodos que resulten eficaces en la re- solución de problemas, con independencia de nuestros gustos o nuestros 184 ARGUMENTOS Y TEORÍAS deseos. Un método tal resultará razonable, no porque dependa del prestigio de unos pocos individuos selectos que lo defienden, sino porque sus resul- tados pueden ser sometidos a prueba repetidamente por cualquiera que lo intente. Cualquier método científico es plausible si desarrolla las dudas todo lo posible, de modo que lo que resiste las dudas adquiere algún grado de aceptabilidad aunque sea provisionalmente. Otra nota de cientificidad para las teorías es el riesgo que corren al enfrentarse a la realidad. La historia de la ciencia nos muestra que algunas convicciones sólidamente fundadas fueron duramente desmentidas. Todos los recaudos son pocos. Los preceptos de "claridad" y "precisión" para los enunciados científicos no garantizan la concordancia con la realidad. Tampoco la sistematización y corrección formal alcanzan para fundamentar la verdad de una teoría que intente decir algo acerca de la realidad. Como en los juegos de poker, ajedrez o truco, es posible elaborar sistemas consistentes y hasta "divertidos" sin que ellos digan nada acerca de la realidad. Tampoco la reiterada contrastación empírica garantiza la certeza de que lo que pasó hasta ahora, pase en el futuro. Si bien la refutación no es algo sencillo, las teorías pueden ser desmentidas y, en la medida en que vayan superando esos riesgos, adquirirán mayor aceptabilidad. Se admite que un conocimiento científico es correcto cuando lo avala una metodología, sin que sea necesario ningún tipo de autoridad política o religiosa. No es casual que la preocupación contemporánea por el método provenga de los tiempos en los que la ciencia se separa de la religión, cuando deja de reconocerse a la Biblia o a los clásicos aceptados por la Iglesia como fuente de conocimiento científico. De allí que: el método científico se entiende como "el estudio sistemático, controlado, em- pírico y crítico de proposiciones hipotéticas acerca de presuntas relaciones entre varios fenómenos, (Samaja, 1993) Capítulo 5 185 Los métodos científicos se presentan como procedimientos o reglas des- tinados a producir un conocimiento nuevo o a convalidar uno ya aceptado. Por ejemplo, cuál es el agente responsable del cáncer o cuál es la relación en- tre migración y tasa de natalidad o la relación entre formación universitaria y divorcio, entre los habitantes de un país. De tal modo, llamamos "científico" a un conocimiento que se distingue por su rigor metodológico, por el inten- to permanente de fundamentar sus afirmaciones. En la ciencia, concebida ahora como una actividad productora de co- nocimientos, se pueden distinguir dos etapas o momentos: el del descubri- miento de teorías y el de justificación de esas teorías. Hans Reichenbach, en Experiencia y predicción (1961) distingue entre contexto de descubrimiento y contexto de justificación de teorías. El primero abarca todo lo relativo al modo en que los científicos arriban a conjeturas, hipótesis o teorías, y se re- laciona con el campo de la psicología, la sociología o la historia; el segundo comprende todas las cuestiones relativas a la validación del conocimiento, relacionado con la gnoseología o la lógica. A estos dos contextos, Klimovsky (1998) le suma el contexto de aplicación de las teorías o tecnológico. Se entiende por "contexto" el ámbito de los sectores y temáticas donde trans- curre el discurso epistemológico. Una cosa es el cúmulo de factores sociales, políticos, psicológicos, económicos, artísticos y religiosos que llevan a los científicos a la producción de teorías y otra, muy distinta, es el apoyo lógico o empírico que consiguen las teorías. Para algunos epistemólogos, el método científico debe quedar confinado al contexto de justificación, ya que no tiene sentido, desde este punto de vista, buscar un método en el descubrimiento de ideas nuevas. En Lógica de la investigación científica, Karl Popper afirma: El trabajo del científico consiste en proponer teorías y contrastarlas. La etapa inicial, el acto de concebir o inventar una teoría, no me parece que exija un análisis lógico. La cuestión de cómo se le ocurre una idea nueva a una persona, ya sea un tema musical, un conflicto dramático o una teoría científica, carece de importancia para el análisis 186 ARGUMENTOS Y TEORÍAS lógico del conocimiento científico. (Popper, 1980) Alrededor de esta afirmación se ha generado una polémica en la episte- mología contemporánea, en la que se discute el deslinde entre los contextos y la reclusión de la metodología en el contexto de justificación. Una lectura ingenua de la afirmación de Popper admitiría que el proceso por el cual a un científico se le ocurre una teoría no merece ninguna explicación, que Ar- químedes llegó a "descubrir" las leyes de la hidrostática al ver cuerpos que se sumergen o que Newton elaboró las leyes de la gravitación universal luego de ver caer manzanas. En rigor, lo que parece decir Popper es que en el contexto de descubrimiento "todo está permitido", que no tiene sentido proponer reglas, que desde el punto de la metodología no hay que justificar si una nueva idea es descubierta por la intuición, la imaginación, la observación, la inducción o la deducción de otras ideas. Cualquier teoría puede afirmar que la causa de un bajo desarrollo intelectual en las personas es una alimentación deficiente, o que las plantas crecen más sanas cuando se les habla con frases cariñosas: el problema es determinar cómo se justifican estas hipótesis. "No hay una lógica del descubrimiento" ha sido, por cierto, una afirmación resistida. En los años '60 algunos epistemólogos comienzan a conferir un peso mayor a la historia de la ciencia de la que había tenido hasta entonces. En los manuales de epistemología se denomina a esta línea nueva filosofía de la ciencia, aunque ya cuenta con cuarenta años de desarrollo e incluye a filósofos de la ciencia como Hanson, Toulmin, Kuhn, Lakatos, Feyerabend y más tarde a Laudan. Thomas Kuhn rechaza la distinción entre los contextos y propone eliminarla, arguyendo que en la práctica real de la ciencia es imposible separar los procesos de justificación de los que gestaron una hi- pótesis. En el proceso de descubrir o gestar una teoría, afirma Kuhn, están esbozados los mecanismos de justificación. La justificación es parte cons- titutiva del descubrimiento y el análisis de una teoría no es ya un análisis lógico, sino que consiste en comprender los procesos que permitieron su Capitulo 5 187 aparición. Una vez que la teoría ha surgido no se cristaliza, no existe una versión final a partir de la cual pueda hacerse una reconstrucción lógica. Al respecto afirma Hillary Putnam la idea de que las ideas correctas caen del cielo, mientras los métodos de verifica- ción son sumamente rígidos y predeterminados, es uno de les peores legados del Círculo de Viena. (...) Pero lo correcto de una idea no es certificado por el hecho de que proviene de un estudio cercano y concreto, de los aspectos pertinentes del mundo; en este sentido, Popper tiene razón, juzgamos la corrección de nuestras ideas aplicándolas y viendo si tienen éxito, y las ideas llevan al fracaso cuando son incorrectas. No ver la importancia de la práctica conduce directamente a no ver la importancia que tiene el éxito. Putnam, 1985) Parafraseando a Kant, Imre Lakatos sostiene una idea parecida cuando afirma: La filosofía de la ciencia sin historia de la ciencia es vacía, la historia de la ciencia sin filosofa de la ciencia es ciega (Lakatos, 1987) Tampoco falta, en la metodología de las ciencias, quien sostenga que nin- gún método aporta las regias adecuadas para guiar las actividades de los cien- tíficos, dadas las complejas condiciones históricas que influyen en el sosteni- miento y en el cambio de teorías. Paul Feyerabend en Tratado contra el método afirma una suerte de "anarquismo epistemológico" al admitir que "todo vale" pues los científicos no deberían estar obligados por las reglas del metodólogo. Hoy en día hay varias metodologías vigentes en el campo de las ciencias fácticas y todas ellas se apartan de la presunción de ser "recetas" que aporten reglas fijas para resolver problemas. 188 ARGUMENTOS Y TEORÍAS 5.4. Estrategias metodológicas básicas de las ciencias fácticas Como vimos en el primer capítulo, las diferentes modalidades de la inves- tigación científica pueden agruparse en dos grandes ramas: las ciencias forma- les y las ciencias fácticas: solamente las segundas buscan explorar, describir, explicar y predecir aquello que tiene lugar en el mundo en que vivimos. Di- cho de otro modo, los enunciados de las ciencias fácticas sólo son aceptables si están probadamente fundados en una base empírica. Este apoyo empírico se consigue de muy diversos modos y los distintos métodos apuntan a esta finalidad. Usualmente, se distinguen las ciencias fácticas según el método que utilizan para probar sus enunciados. Dentro de las ciencias fácticas, la distin- ción entre ciencias de la naturaleza y ciencias humanas tiene una larga tra- dición. La distinción tradicional entre naturaleza (el conjunto de la realidad que no ha sido modificada por el hombre) y la cultura (la parte de la realidad modificada o producida por el hombre) sirve para clasificar a las ciencias fácticas. Dentro de las ciencias naturales, se distingue entre las que estudian la naturaleza inorgánica (la física) y las que tienen por objeto de estudio la naturaleza orgánica (la biología). A su vez, dentro de las ciencias humanas se incluye la lingüística, la historia, la economía, la psicología y otras. Wilheim Dilthey (1833-1911), en Introducción a las ciencias del espíritu, sostiene que el objeto primordial de las ciencias sociales es la comprensión. Heinrich Rickert (1863-1936), en Ciencia cultural y ciencia natural, sostiene que la noción de valor sirve de guía para el estudio de los objetos culturales pero no tiene ningún lugar en las ciencias naturales. Durkhein (1858-1917) y Max Weber (1864-1921) afirman que no hay diferencias esenciales entre ciencias natura- les y sociales. Sigmund Freud (1850-1939) pensaba a la psicología como una ciencia natural cuando afirmó en Más allá del principio de placer, (1920): La biología es verdaderamente un reino de posibilidades ilimitadas; tenemos que esperar de ella los esclarecimientos más sorprendentes y no podemos columbrar las respuestas que decenios más adelante dará a los interrogantes que le planteamos. Quizá las dé tales que derrumben todo nuestro artificial edificio de hipótesis (Freud, 1989) Capitulo 5 189 Para algunos epistemólogos, las ciencias sociales carecen de objetividad, ya que habría en ellas una identidad, al menos parcial, entre sujeto y objeto de estudio. Ernst Nagel afirma que no hay diferencias esenciales entre cien- cias naturales y sociales, en la medida en que los problemas de falta de objeti- vidad no son exclusivos de las ciencias sociales y afectan a las ciencias fácticas en general. Según Schuster (1992) una clasificación posible de las ciencias nos permite referirnos a las ciencias formales (lógica, matemática), naturales (física, química, biología) y sociales o humanas (economía, sociología, antro- pología, psicología, psicoanálisis, historia, lingüística, derecho, educación, política, comunicación, geografía, etc) Recurriendo a los diferentes niveles de la semiótica o de la teoría de los signos podría señalarse que las primeras son de índole primordialmente sintáctica, las segundas semánticas y las terce- ras pragmáticas (en el sentido del papel más relevante del individuo-usuario). Esta distinción hace referencia, por la menor o mayor participación de los sujetos investigadores, a ciencias de baja pertenencia (las naturales) y de alta pertenencia (las sociales o humanas) El criterio que distingue entre ciencias naturales y sociales es menos fir- me que el que diferencia a las ciencias formales y a las fácticas, ya que, a menudo, no hay acuerdo acerca de dónde ubicar la línea divisoria, lo que también afecta a las consideraciones sobre los métodos a emplear. ¿Hay un solo método para las ciencias fácticas tanto naturales como sociales? Des- de distintas concepciones de la ciencia se ha tratado de reivindicar algún tipo de monismo metodológico, ya sea afirmando el monopolio del método hipotético-deductivo o del método dialéctico. La pretensión de imponer mé- todos de las ciencias formales y naturales a las sociales es un empeño discu- tible, aunque puede reconocerse el aporte positivo del método axiomático, el inductivo y el hipotético-deductivo en las ciencias sociales, sin que ello implique una pérdida de autonomía y especificidad en su metodología, que asimismo utiliza el método dialéctico, el de la comprensión, el fenomenoló- gico y otros. El pluralismo metodológico sostiene la independencia, así como la necesidad de evaluar cada método por separado, y admite que se puedan 190 ARGUMENTOS Y TEORÍAS utilizar métodos distintos en momentos y situaciones diferentes, donde las ciencias naturales pueden asimismo recibir el aporte de la metodología de las ciencias sociales para evaluar el papel del investigador en el marco social y el lugar que ocupan las teorías científicas en el seno de la comunidad científica frente a las pretensiones de objetividad. Correctamente advierte Schuster que tal pluralismo no debe confundirse con el eclecticismo, ya que no se pretende descartar la posibilidad de compartir un horizonte teórico común. Un mejor conocimiento del mundo que se investiga no tiene por qué considerar a la realidad parcializada o separada, dado que se critica la creencia acerca de la existencia de hechos o fenómenos aislados, así como se reconoce la necesidad de contextualización. Para este autor, se debe evitar el monismo metodológico cuando atenta contra la autonomía de los distintos campos de investigación, especialmente en el caso de las ciencias sociales. 5.5. Método inductivo: inductivismo "estrecho" e inductivismo "sofis- ticado" El gran prestigio adquirido por las ciencias naturales (física, biología, quí- mica) se debe, en parte, a la contribución exitosa a la tecnología, tanto como a la posibilidad de reemplazar las explicaciones mágicas o mitológicas por explicaciones que sigan algún criterio de racionalidad. Este prestigio hace que algunos epistemólogos consideren conocimiento científico ejemplar al alcanzado por la física o por las ramas del conocimiento que han conseguido un desarrollo comparable, de allí que se consideren "métodos científicos" a los utilizados en estas ciencias. Los logros alcanzados por la epistemología actual son, en parte, deudo- res del Inductivismo, perspectiva que identifica a la ciencia como una forma de conocimiento que alcanza un alto grado de objetividad, neutralidad y progreso. Según esta tendencia, la observación cuidadosa y desprejuiciada está al comienzo de todo proceso cognitivo. Los enunciados basados en la observación y la experimentación son considerados "científicos" en oposi- Capítulo 5 191 ción a otros enunciados basados en la autoridad, en la emoción, en la espe- culación, en la tradición o en los prejuicios. Este paradigma surge a partir de la revolución científica de los siglos XVI y XVII, pero alcanza su síntesis perfecta en la figura de Newton, aunque posteriormente se extendió al resto de los campos del saber. Este punto de vista que, durante siglos, contribuyó a conformar el criterio de racionalidad aceptada en Occidente, culminó con el intento de la Ciencia Unificada del Círculo de Viena, grupo de epistemólo- gos de lengua alemana también identificados como "empiristas lógicos". En su sentido más amplio, el inductivismo engloba todas las corrientes que sostienen las siguientes tesis: 1. Solamente es fecundo el conocimiento de los hechos. 2. La certeza está dada por las ciencias experimentales. 3. El contacto con la experiencia y la renuncia a cualquier forma de a priori es la manera de evitar el verbalismo y el error. Aquí queda incluido el cientificismo, es decir, la perspectiva según la cual los ideales del conocimiento científico deben extenderse a todos los domi- nios de la vida intelectual y moral. (Schuster ,1985) Como vimos, la inducción es el razonamiento donde las premisas con- tienen información acerca de algunos miembros de una clase y, sobre esa base, se arriba a una generalización acerca de toda la clase, o una predic- ción acerca de un miembro no examinado de la clase. El inductivismo es la posición filosófica que admite que la experiencia o la observación es el lugar seguro desde donde captar la realidad, y es el primer paso del método científico. Entre los precursores del inductivismo es posible reconocer a Francis Bacon (1561-1626), quien consideró que el verdadero método del conocimiento científico se apoya en el experimento y la observación. La ascensión, a partir de los hechos sensibles hasta llegar a los conceptos, era para él la senda de la genuina ciencia. John Stuart Mill (1806-1873) sostie- ne que la inducción es un proceso mental, con cuya ayuda inferimos algo que nos es conocido como verídico en un caso particular o en unos cuantos 192 ARGUMENTOS Y TEORÍAS casos, y que será verídico en todos los casos semejantes al primero en ciertas determinadas relaciones de la clase. A Mill pertenece la descripción clásica de los métodos de la inducción científica, elaborada de acuerdo con la tradición de Bacon: el método de semejanza o concordancia, el método de diferencia, el método combinado de semejanza y diferencia, el método de residuos y el de las variaciones concomitantes. Estos "cánones del método inductivo" constituyen una formulación de varios procedimientos induc- tivos considerados parte del método experimental, destinado a determinar bajo qué condiciones podemos afirmar que A es causa de B. Actualmente estos criterios son reformulados en términos estadísticos. Método de la concordancia: Si dos o más casos del fenómeno que se investiga tienen solamente una circunstancia en común, esa circunstancia en la que con- cuerdan es la causa (o el efecto) del fenómeno. Por ejemplo, si en un comedor escolar se intoxican 10 niños sobre 100, se busca qué elemento en común hay en lo que ingirieron. Si todos los factores intervinientes (alimentos in- geridos, formas de cocción de los alimentos, limpieza de los utensilios, etc) varían y lo único que se mantiene es la presencia de un alimento y la intoxi- cación, puede pensarse que ese alimento es la causa de la intoxicación. Si se observa que en una ciudad hay un índice de suicidios de adolescentes mucho mayor que la media del país, se busca el elemento concordante común pre- sente en esa población. Cuando es suficiente que ocurra A para que ocurra B, entonces A debe ser la causa de B. El método de la diferencia: Si un caso en el cual el fenómeno que se inves- tiga se presenta y un caso en el cual no se presenta tienen todas las circunstancias comunes excepto una, presentándose ésta solamente en el primer caso, la circuns- tancia única en la cual difieren los dos casos es el efecto, o la causa, o una parte indispensable de la causa de dicho fenómeno. Por ejemplo, si se sospecha que la causa del paludismo es la picadura de un mosquito, se ubica a personas no inmunes en habitaciones herméticamente aisladas a la presencia del mosqui- to, se les proporciona alimentos en vajillas usadas por enfermos de paludis- Capitula 5 193 mo, deben dormir sobre sábanas usadas por enfermos, y estar en contacto con recipientes sucios de excrementos, vómitos y sangre de enfermo. Si no se contagian y luego contraen la enfermedad al ser picados por mosquitos, esa es la causa. Es posible que la picadura no sea la única causa, pero puede ser considerada como un factor importante en el contagio de la enfermedad. Tanto el método de la concordancia como el de la diferencia, tomados en sentido estricto, son impracticables (Klimovsky, 1998). Pues, ¿cuán- tas variables hay involucradas?¿cómo hacer para que algunas variables se mantengan constantes? Por ejemplo, cómo lograr que no se muevan los planetas, o que no se reproduzcan las células en un organismo vivo. C o m o veremos más adelante, estos métodos son impracticables si no suponemos hipótesis previas acerca de cuáles son las variables pertinentes para mante- ner constantes o no. Estos cánones, reformulados en términos estadísticos, indicarían que, a igualdad de valor de las demás variables pertinentes, si la correlación de A con B es alta y la de no A con no B también lo es, entonces hay una correlación causal. El método conjunto de la concordancia y de la diferencia resulta de una combinación de los dos métodos anteriores. Copi (1984) cita el siguiente ejemplo: Eijkman alimentó a un grupo de pollos con arroz refinado exclusi- vamente (concordancia). Todos desarrollaron polineuritis y murieron. Luego alimentó a otro grupo de pollos con arroz sin refinar y no murió ninguno. Luego reunió el salvado (cáscara del arroz) para alimentar a pollos enfermos de polineuritis y se curaron (diferencia). Así descubrió que la causa de la enfermedad era una dieta defectuosa, así como el modo de curarla. El método de los residuos: Restad a un fenómeno la parte de la cual se sabe, por inducciones anteriores, que es el efecto de ciertos antecedentes y el residuo del fenómeno es el efecto de los antecedentes restantes. Para algunos epistemólogos, esta forma de inducción se acerca a la deducción. Un ejemplo citado es el caso del planeta Neptuno analizado por Adams y Le Verrier. Se había estu- diado el comportamiento del planeta Urano aplicando las leyes de Newton 194 ARGUMENTOS Y TEORÍAS y se diseño su órbita admitiendo la influencia del Sol y los otros planetas. Pero los cálculos no coincidían con las observaciones del movimiento de Urano. Suponiendo que estas diferencias fueran adjudicables a la influencia de otro hipotético planeta, tomando como base las perturbaciones, se calculó la presencia de este planeta en una órbita en la que luego se lo descubrió: se lo llamó Neptuno. Los cuatro métodos anteriores son eliminatorios. En el método de la con- cordancia eliminamos como causas posibles todas aquellas en cuya ausencia el fenómeno igual se produce, y luego inferimos que las restantes son la causa. En el método de la diferencia excluimos una de las circunstancias mientras dejamos inalteradas las otras. Si el fenómeno no aparece, inferimos que todas las circunstancias que permanecen pueden ser eliminadas como causas y concluimos que la circunstancia ausente es la causa del fenómeno. También es eliminatorio el método conjunto y el de los residuos. Hay situa- ciones donde no es posible eliminar ciertas variables, por lo que los cuatro métodos anteriores no pueden usarse. De allí la postulación del método de las variaciones concomitantes. Se formula de la siguiente manera: Un fenó- meno que varía de cualquier manera, siempre que otro fenómeno varía de la misma manera, es, o una causa, o un efecto de este fenómeno, o está conectado con él por algún hecho de causalidad. Mill pone como ejemplo el fenómeno de las mareas. Sabemos que el ascenso y descenso del mar tiene como causa la atracción gravitacional de la Luna, pero no se podría haber llegado a esta teoría usando los cuatro métodos eliminatorios. La proximidad de la Luna no es la única circunstancia presente en la marea alta, pues están las estrellas que no pueden ser eliminadas, tampoco puede eliminarse la Luna en el caso del método de la diferencia y el de los residuos. No podemos experimentar con la Luna ausente para observar cuáles son los fenómenos que no aparecen en su ausencia pero vemos que las variaciones de la posición de la Luna van seguidas de variaciones de la marea alta en la parte más próxima o más alejada de la Tierra y de la Luna. De allí que la Luna sea considerada total o parcialmente la causa que determina las mareas. Un agricultor puede adver- Capitulo 5 195 tir que hay una relación causal entre el uso de fertilizante y el rendimiento de la cosecha, si aplicando en distintas partes de su campo más fertilizante obtiene más cosecha. El uso de este método es muy frecuente en economía. Si la demanda de un producto permanece constante, entonces todo aumento en la oferta irá acompañado de una disminución en el precio. Esta variación probaría que hay una relación causal entre oferta y precio de un producto. El método de variación concomitante es importante porque es el único método cuantitativo de inferencia inductiva, ya que los otros son cualitativos. Es por eso que su uso presupone algún procedimiento para medir los grados en que el fenómeno varía. Según Mill, sus métodos sirven para descubrir tanto como para probar o demostrar conexiones causales. Los métodos son reglas para la prueba. Las críticas al uso de los métodos de Mill no están referidas tanto al método mismo como a los méritos desmedidos que se les adjudica. Los métodos de Mili son más limitados de lo que imaginó su creador pero, dentro de sus restricciones, son útiles para las ciencias fácticas. Pueden usarse junto con la hipótesis de que las circunstancias mencionadas son las únicas atinentes al fenómeno. Existen infinitas variables en el universo. Decidir cuáles son las variables pertinentes y cuáles no supone el uso de hipótesis previas. Cuando se interpreta los resultados de estos métodos estadísticamente, lo que se in- vestiga es si la correlación de las variables es alta, tanto positivamente como negativamente. En el esquema tradicional del método científico, tal como lo presenta el inductivismo ( y se puede encontrar todavía en manuales escolares y en folletos científicos ) aparece expuesta la siguiente secuencia a seguir por el investigador: 1. Observación y registro de los hechos. 2. Análisis y clasificación de éstos. 3. Derivación inductiva de generalizaciones. Establecimiento de enun- ciados generales a partir de las observaciones particulares. 4. Contrastación empírica de las conclusiones. 196 ARGUMENTOS Y TEORÍAS A este esquema, Hempel (1966) lo denomina concepción inductivista es- trecha de la investigación científica. En este esquema, el primer paso de una investigación es la observación imparcial y el registro de los hechos. Hempel destaca que el esquema - tal como se lo presenta- es impracticable, porque si intentáramos seguirlo ni siquiera podríamos dar el primer paso, en la medida en que sería imposible observar todos los hechos que existen en el mundo. Si nos ordenan "ahora observe" inmediatamente deberíamos preguntar: "¿ob- servar qué?" Si no existe previamente una idea o un criterio o una teoría que determine cuáles son los hechos relevantes a observar para resolver un pro- blema científico, ¿hemos de observar minuciosamente las diferentes formas de las nubes, uno por uno todos los granos de arena que existen en el pla- neta, cuántos gramos de polvo atmosférico hay ahora depositado sobre esta mesa? La idea de que el primer paso de una investigación es la observación sin ninguna teoría o idea previa, se autorrefuta. Es necesario poner el énfasis en que, aún cuando pudiera sortearse este escollo, existe la dificultad de que la inducción, en tanto razonamiento ampliatorio, no garantiza el pasaje de verdad entre premisas y conclusión. El problema de la inducción se ubica en el contexto de justificación. ¿Cómo justificar enunciados universales (leyes, teorías o hipótesis) a partir de hechos particulares? La inducción no se puede justificar sobre bases lógicas. Así lo ilustra Chalmers con el célebre ejemplo del pavo inductivista: Un ejemplo de la cuestión, más interesante aunque bastante truculento, lo constituye la explicación de la historia del pavo inductivista por Bertrand Rus- sell. Este pavo descubrió que en su primera mañana en la granja avícola comía a las 9 de la mañana. Sin embargo, siendo como era un buen inductivista no sacó conclusiones precipitadas. Esperó hasta que recogió una gran cantidad de observaciones del hecho de que comía a las 9 de la mañana e hizo estas observa- ciones en una gran variedad de circunstancias, en miércoles y en jueves, en días fríos y calurosos, en días lluviosos y en días soleados. Cada día añadía un nuevo Capitulo 5 197 enunciado observacional a su lista. Por último, su conciencia inductivista se sintió satisfecha y efectuó una inferencia inductiva para concluir: "Siempre como a las 9 de la mañana". Pero, ¡ay! Se demostró de manera indudable que su conclusión era falsa cuando la víspera de Navidad, en vez de darle la comida, le cortaron el cuello. Una inferencia inductiva con premisas verdaderas ha llevado a una conclusión falsa. (Chalmers, 1988) En defensa de la inducción podría decirse que, sobre la base de la obser- vación del movimiento de algunos planetas, se pudieron establecer algunas leyes que permitieron predecir la aparición de eclipses, o que, a partir de observaciones de laboratorio, se han llegado a establecer las leyes de la óptica. Tal justificación es inadecuada ya que, como mostró Hume en el siglo XVIII, el argumento que permitiría justificar la inducción mostrando casos exitosos de aplicación es circular. El escepticismo de Hume respecto a la justificación de procedimientos inductivos supone rechazar la justificación de cualquier forma de inferencia ampliativa, así como creencias acerca del futuro sobre la base del pasado, incluso si provienen de información verdadera. Para aceptar la inducción, deberíamos aceptar un principio de uniformi- dad de la naturaleza que dijera "los casos de los que no hemos tenido expe- riencia son semejantes a los casos de lo que hemos tenido experiencia" La demostración de este principio no puede ser formal ya que este piano se rige por la no-contradicción, y no es contradictorio pensar que en la naturaleza puede haber novedades o cambios. No es contradictorio pensar que la piedra que hasta ahora cayó, mañana no caerá. A pesar de ello, confiamos en la re- gularidad de ciertos fenómenos. Confiamos en que un paraguas normal será protección suficiente contra la lluvia, no esperamos que mañana lluevan me- teoritos. Tampoco salimos a la calle con un tanque de oxígeno sólo porque no es contradictorio pensar que puede cambiar la composición de los gases en la atmósfera. La justificación de la inducción tampoco podría provenir del campo de la experiencia. El argumento que sigue incurre en circularidad: 198 ARGUMENTOS Y TEORÍAS El principio de la inducción funcionó en la Teoría 1 El principio de la inducción funcionó en la Teoría 2 El principio de la inducción funcionó en la Teoría 3 El principio de la inducción funciona siempre Como es fácil advertir, utilizaríamos una inferencia inductiva para justificar el principio de la inducción. No niega Hume que haya una inclinación psico- lógica a creer en el principio de la inducción, lo que niega es que esta creencia tenga una fundamentación racional. Al respecto afirman Diez y Moulines: Después de doscientos cincuenta años la epistemología sigue buscando una res- puesta satisfactoria al reto escéptico de Hume. Nótese que planteado en sus estric- tos términos, el argumento de Hume no tiene escapatoria. Si por "α justifica ß" se entiende que la verdad de ce garantiza plenamente la verdad de (3, no hay nada más que hablar. En ese sentido, las únicas inferencias justificativas, son las demos- trativas; las inferencias ampliativas, por definición, no son justificativas. Eso es así aunque se pretenda algo aparentemente más débil, a saber, que aunque no to- das las inferencias ampliativas garantizan la verdad de la conclusión, la mayoría sí lo hace. El argumento de Hume no se ve afectado por esa aparente variación. Lo que el argumento muestra no es sólo que no podemos justificar que todas las inferencias ampliativas con premisas verdaderas tienen conclusiones verdaderas, sino que no podemos justificar eso de ninguna de ellas. (Díez y Moulines, 1999) Se les reconoce a Carnap y Hempel la autoría de la versión más sofisticada del inductivismo, a menudo identificada como "confirmacionismo", aunque asimismo pueden citarse los aportes de Bergmann, Duhem, Braithwaite, Reichenbach, Campbell, Ramsey, Margenau, Northrop, Nagel, Ayer y Ka- plan, entre otros. Todos ellos se encontraron con problemas al momento de Capítulo 5 199 llevar hasta las últimas consecuencias sus teorías ya que, como afirmó Hume, el inductivismo es inconsecuente cuando no puede fundamentar el princi- pio mismo de la inducción, que sostiene que "el futuro está contenido en el pasado, es decir, lo que ocurrió hasta ahora en el pasado seguirá ocurriendo en el futuro". Dicho de otro modo, "la naturaleza es constante." Como vi- mos, si este principio se intenta fundamentar de manera inductiva, se cae en un círculo vicioso. Hume renuncia a todo esfuerzo de fundamentación al afirmar que tal principio de la inducción es un hábito, en la medida en que la espera del futuro a partir de los acontecimientos pasados es puramente subjetiva, y no hay nada en la realidad que pueda garantizar tal sucesión de acontecimientos. Frente al problema, estos autores encontraron un nuevo modo de justificación al dar un paso al costado para refugiarse en el cál- culo de probabilidades y en una lógica confirmacionista. Dado que lo que distingue a la inducción de la deducción es que las predicciones nunca se garantizan totalmente, sino que tienen un grado más o menos alto de pro- babilidad, se suplanta la pretensión de verificación por la de confirmación. Reichenbach está de acuerdo con Hume en que no se puede probar la verdad del principio de inducción, aunque no coincide en la necesidad de renunciar a su justificación, planteando la cuestión sobre otras bases. De este modo, asimila el problema de la inducción a la conducta del apostador: el jugador no sabe si su suposición resultará un estado de cosas verdadero pero le asigna un grado de probabilidad, y en esta suposición descansa su toma de decisión. De la misma manera se interpreta la actitud frente a las proposiciones em- píricas referidas al futuro: apostamos sobre la base de la probabilidad que asignamos a nuestra jugada. No hay apuestas verdaderas o falsas, sino más o menos probables de que se cumplan: del mismo modo, la inducción busca fundamentar la apuesta maximizadora. Según Reichenbach, Hume demos- tró la imposibilidad ontológica del principio de la inducción, es decir, la im- posibilidad de demostrar la regularidad de los comportamientos naturales. Su propuesta, en cambio, parte de la necesidad de una prueba epistemológica a partir de sostener la siguiente tesis: "la posibilidad de predicciones presupone 200 ARGUMENTOS Y TEORÍAS la posibilidad de una clasificación de los acontecimientos tal que el procedimien- to de inducción repetida conduzca al éxito. Si las predicciones son posibles, la inducción es una condición suficiente para encontrarlas. Lo esencial de este método es que no busca hallar soluciones definitivas, sino que somete cada uno de los resultados al control experimental permanente. Una apuesta puede resultar exitosa en relación con un cierto conjunto de experiencias, pero puede resultar un fracaso cuando se amplía la base experimental. Por ejemplo: podría afirmarse, sobre la base de procedimientos inductivos, que "todos los cisnes son blancos" si cada uno de los cisnes observados tiene ese color. Pero este enunciado podría relacionarse con otro enunciado inductivo que dijera "en toda especie biológica el color es un atributo variable". De este modo, se puede considerar el conjunto de los métodos científicos como una vasta red de inducciones donde unas corrigen a otras. En esta perspectiva, el conjunto de la ciencia representa una apuesta más favorable que una prueba individual, tiene mayores recaudos que la visión de un mago mirando una bola de cristal pero, al igual que ella, conserva el sello de la incertidumbre y del riesgo. Es posible que la naturaleza no tenga un curso regular pero, si lo tiene, entonces la inducción es una jugada correcta. Apostar por la in- ducción es pragmáticamente correcto aunque podría incluso ocurrir que el mago acertara en una predicción y el científico no. Reichenbach no niega esa posibilidad. Si la ciencia alcanza el éxito o no depende de muchas circuns- tancias que no se pueden garantizar de antemano. En ese sentido, sostiene lo siguiente: Sabemos que una red más grande y de trama más fina promete más rendimiento pero no puede garantizar al pescador conseguir ni un sólo pez, tampoco la ciencia contiene para nosotros ninguna garantía de éxito (...) Somos pescadores en el mar del conocimiento; echemos nuestras redes y esperemos. (Reichenbach, 1972) Carnap concuerda con Reichenbach en que la búsqueda de un método que permita pasar, sin error, de los hechos a la ley, es una empresa imposible, Capítulo 5 201 y que la lógica inductiva, al igual que la deductiva, no puede garantizar la verdad material de la conclusión de un razonamiento. El método científico no debería proporcionar reglas que permitan enunciar leyes, sino establecer - una vez formulada una hipótesis- en qué medida está justificada. Como ya se ha visto, Carnap desarrolló un método general para definir el "grado de con- firmación de una hipótesis" expresada en ese mismo lenguaje. Esboza una lógica inductiva analítica con la esperanza de alcanzar un nivel comparable al que lograron Frege y Russell para la lógica deductiva. Así como la lógica de- ductiva sirve de fundamento a las matemáticas, la lógica inductiva permitiría fundamentar la Estadística. A partir de esto, los inductivistas desarrollaron un largo programa técnico que duró varias décadas, donde se construyeron lenguajes artificiales tan limitados que no lograron satisfacer los requisitos de las generalizaciones universales. 5.6. M é t o d o hipotético-deductivo Este enfoque coloca en primer plano la investigación metodológica del análisis del proceso de comprobación y fundamentación de hipótesis. Con- siste en su confrontación tanto con los hechos empíricos, ya conocidos, como con aquellos hechos que han de ser establecidos posteriormente, es decir, presupone la evaluación de la hipótesis desde el punto de vista de las posibilidades de lograr, con su ayuda, la explicación de los hechos existentes y la previsión de otros nuevos. El método de la fundamentación de las generalizaciones teóricas, adoptadas como hipótesis, con ayuda de la deducción de consecuencias empíricas comproba- das, recibe la denominación de método hipotético - deductivo. El método hipotético-deductivo consiste en tratar de contrastar hipótesis mediante consecuencias observacionales y de esa manera establecer conclu- yentcmente la falsedad de una proposición, pero no su verdad. Las teorías se mantendrán si son corroboradas o se descartarán si resultan refutadas a partir 202 ARGUMENTOS Y TEORÍAS de la falsedad de alguna de sus consecuencias observacionales. Se presenta en este método la siguiente secuencia: a) hipótesis fundamentales o de partida que intentan responder a un pro- blema b) hipótesis derivadas, deducidas de las anteriores c) consecuencias observacionales, enunciados del más bajo nivel de gene- ralidad, que se extraen deductivamente de las hipótesis fundamentales y de las derivadas. Estas afirmaciones particulares se confrontan con la ex- periencia, se someten a prueba empírica. De allí resultará la refutación de la hipótesis si la consecuencia observacional resulta un enunciado falso, o la corroboración si la contrastación resulta favorable. De esta manera, se desarrolla un proceso deductivo de generalización decrecien- te de los enunciados. Sabemos que todo enunciado es o bien verdadero o bien falso. Llamamos verificación a la prueba de que un enunciado es verdadero y refutación a la prueba de que es falso. Suponiendo que sea posible tanto verificar como refu- tar enunciados observacionales ¿qué puede inferirse de las hipótesis de donde fueron deducidos? Al responder esta pregunta se señala una asimetría entre verificación y refutación de hipótesis. El Modus Tollens es la regla lógica que permite ejemplificar el caso de la refutación de una hipótesis, ya que permite afirmar que si un enunciado observacional resultara falso, es falsa la hipótesis de donde se derivó. Si se puede encontrar un planeta que no gire alrededor del sol entonces es falso que todos los planetas giran alrededor del sol, si se encuentra un animal mamífero que no tiene sangre de color rojo entonces es falso que todos los mamíferos tienen sangre de color rojo H 3 C. O. -CO - H Si la Consecuencia observacional fuera verdadera, podríamos construir el siguiente esquema: Capítulo 5 203 H Pero, como vimos, este esquema responde a la Falacia de afirmación del consecuente, de modo que podrían ser verdaderas las premisas y falsa la con- clusión. Por lo tanto, no verifica la hipótesis, que puede ser considerada como corroborada o confirmada, según el punto de vista epistemológico que se adopte. La deducción de consecuencias observacionales verdaderas no per- mite inferir que la hipótesis es verdadera. En todo caso puede decirse (pers- pectiva inductivísta) que la hipótesis ha sido confirmada. Si se reiteran los experimentos y se obtiene un gran número de consecuencias observacionales verdaderas, podría afirmarse por inducción que la hipótesis es probablemen- te verdadera, es decir, que existe un alto grado de probabilidad y que esa probabilidad puede medirse.A esta postura, denominada confirmacionismo, adhieren Carnap y Hempel. La corriente epistemológica llamada refutacionismo, liderada por Karl Po- pper, ha dado gran importancia a la asimetría entre verificación y refutación , produciendo una interpretación distinta de esta situación, ya que su postura parte del rechazo a la inducción como método científico y al inductivismo en cualquiera de sus versiones. Si bien Popper nació en Viena y tuvo contactos con el Círculo de Viena, no formó parte de él. Sin embargo, compartía con el movimiento neopositivista la convicción de que ninguna actividad filosófica que se separe de la ciencia puede conducir a resultados válidos, por lo que resaltaba, en consecuencia, la necesidad de establecer una demarcación entre ciencia y metafísica. A pesar de esta coincidencia, se oponía al inductivismo como método de la ciencia, y ai principio de verificación como criterio de demarcación entre ciencia y metafísica. Proponía, en cambio, que la ciencia se caracterizara por el método hipotético deductivo, considerando a la falsabi- lidad el camino para segregar a la ciencia de la metafísica. Para Popper una hipótesis "disparatada" se distingue de una hipótesis científica en que esta 204 ARGUMENTOS Y TEORÍAS última puede ser controlada, confrontada con la experiencia y, por ende, falsada por ella. Desde el punto de vista lógico, ningún número finito de casos a favor de una generalización empírica es suficiente para formular una ley. Por ejemplo, afirmamos que todos los cuervos son negros pero dicha afir- mación no puede ser verificada, porque la totalidad lógica es empíricamente inabarcable. Sin embargo, basta que un solo cuervo no sea negro para refutar el enunciado universal que afirma que todos lo son. En la medida en que no hay respaldo lógico para los enunciados universales del tipo todos los cuervos son negros, resultantes de procesos inductivos, Karl Popper decidió rechazar la inducción y proponer un nuevo modo de encarar el hipotético-deducti- vismo. Según él no se busca confirmar las hipótesis, pues eso significaría caer en la falacia de afirmación del consecuente, y lo que justamente persigue es utilizar enunciados justificados en la deducción. Por ende, lo que sí hay que buscar, con absoluto respaldo lógico, es la refutación o falsación de las hipó- tesis, con la estructura de un Modus Tollens. Para Karl Popper una hipótesis debe ser el blanco permanente de sistemáticos intentos de refutación, y si la hipótesis resiste tales intentos hay razones para aceptarla provisionalmente. Las hipótesis propuestas para responder un problema deben correr el riesgo de ser falsas y para ello, en principio, deben ser falsables. Ahora bien ¿cuándo una hipótesis es falsable? Una hipótesis es falsable cuando aporta un informe de riesgo acerca del mundo. Y ¿qué significa esto? Ni más ni menos que la hipótesis tenga contenido empírico, que diga algo acerca del mundo y que no esté prevenida contra la refutación, de modo que se corra el riesgo de que ésta pueda acontecer en cualquier momento. Para ello, en primer térmi- no, es necesario que la hipótesis sea. falsable, es decir, que venga la posibilidad de ser falsa. La terminación "ble" indica posibilidad, de tal modo que no debe confundirse falsable con falsada. Una hipótesis falsable -en el proceso de contrastación empírica - puede resultar falsada o corroborada. La teoría geocéntrica es falsable y, además, resultó falsada en el curso de la historia de la astronomía, mientras que la teoría heliocéntrica también es falsable pero, hasta ahora, ha sido corroborada. Capítulo 5 205 Para Popper existen grados de falsabilidad, hay hipótesis más falsables que otras. La falsabilidad de una hipótesis depende del grado de generalidad de su sujeto y del grado de precisión de su predicado. Una hipótesis será más falsable, entonces, cuando su sujeto sea más universal respecto a otra y su predicado más preciso. Por ejemplo, "Todos los planetas tienen atmós- fera" es más falsable que "La Tierra tiene atmósfera" porque el enunciado universal ofrece mayores oportunidades para la refutación. A la vez, "Todos los planetas tienen atmósfera donde está presente el oxígeno" es más falsable que "Todos los planetas tienen atmósfera", porque al precisarse su predicado también facilita la posible refutación. No son falsables, es decir, no tienen contenido empírico, los enuncia- dos probabilísticos, porque la probabilidad los protege contra la refutación. Por ejemplo, "es probable que mañana vayamos al cine". Tampoco lo son los enunciados tautológicos, como "este año termino mis estudios univer- sitarios o no los termino", porque no ofrecen ninguna información precisa acerca del mundo, ya que solamente expresan la ley de tercero excluido (p v —p). Tampoco son falsables los enunciados que contienen términos sin de- notación, del tipo de "ángel", "bruja" o "energía positiva", ni ios enunciados problemáticos del tipo "Quizás mañana te conteste el mail". En todos estos casos, ningún estado de cosas permite afirmar que el enunciado es falso. Si en el último ejemplo, el hablante no contesta el mail, no podernos afirmar que mintió, porque no hizo una afirmación categórica del tipo "mañana te contesto el mail" o "mañana no te contesto el mail" que podrían ser tomadas como hipótesis falsables. El proceso de puesta a prueba de una hipótesis científica involucra más factores que los presentados de modo esquemático hasta aquí. Así como no hay verificación de las hipótesis, la refutación tampoco es un caso sencillo. Cuando se intentan derivar consecuencias observacionales a partir de hi- pótesis fundamentales, es necesario hacer uso de suposiciones adicionales. Las hipótesis fundamentales por sí solas, en general, no son suficientes y requieren que se las ponga en conjunción con otras que tienen un carácter 206 ARGUMENTOS Y TEORÍAS instrumental o auxiliar y se las denomina "hipótesis auxiliares". Estas hipóte- sis cumplen el papel de premisas adicionales y se supone que deben cumplir dos requisitos: 1) Ser falsables 2) Ser contrastadas con anterioridad y/o con independencia de la hipó- tesis fundamental. En el ejemplo anterior, la hipótesis "mañana te con- testo el mail" puede tener como hipótesis auxiliares "mañana estoy vivo", "mañana hay suministro normal de energía eléctrica", "mañana funciona el servidor", de tal modo que si la hipótesis resulta refutada, pudiera des- viarse la falsación a alguna hipótesis auxiliar que no se cumplió. El esquema sería H y H a l y Ha2 y Ha3 ZD C.O En el esquema, podría resultar que si se presenta —C.O (no se cumple la Consecuencia Observacional) puede deducirse —Hal o —Ha2 (no se cum- plen algunas de las Hipótesis Auxiliares involucradas). Si un enunciado que se presenta cumpliendo este papel de premisa adicional no cumple con estas dos condiciones, es decir que no es falsable ni independiente, se dirá que se trata de una hipótesis ad hoc. Supongamos que entre las premisas adicionales figurara la hipótesis "mañana no seré capturado por seres extraterrestes". Si al no contestar el mail se alega haber sido capturado por seres extraterrestres, a la vez que se reconoce no poder probarlo porque los E:T: no dejaron huellas del secuestro, parece tratarse de un enunciado irrefutable destinado a "blin- dar" a la hipótesis principal para salvarla de la falsación. Los casos reales de refutación de hipótesis científicas son más complejos que el ejemplo trivial que presentamos, entre otras cosas porque las hipótesis ad-hoc ocupan un lugar importante en el desarrollo de las teorías. Una hipótesis ad-hoc puede ser una conjetura audaz, algo que se especula que debería ocurrir para que se cumpla lo que afirma la hipótesis principal. Algunas teorías científicas importantes fueron hipótesis ad-hoc en el inicio de una investigación. Al respecto afirma Alan Chalmers: Capítulo 5 207 Para los falsacionistas, un hecho histórico embarazoso es que si los científicos se hubieran atenido estrictamente a su metodología, aquellas teorías que se conside- ran por lo general como los mejores ejemplos de teorías científicas nunca habrían sido desarrolladas, porque habrían sido rechazadas en su infancia. Dado cual- quier ejemplo de una teoría científica clásica, ya sea en el momento de su primera formulación o en una fecha posterior, es posible encontrar afirmaciones obser- vacionales que fueron generalmente aceptadas en esa época y que se consideran incompatibles con la teoría. No obstante, estas teorías no fueron rechazadas y esto fue una suerte para la ciencia. A continuación ofreceré algunos ejemplos históricos que apoyan mi afirmación. En los primeros años de su vida, la teoría gravitatoria de Newton fue falsada por las observaciones de la órbita lunar. Llevó casi cincuenta años desviar esta falsación hacia causas distintas de la teoría newtoniana. Al final de su vida, se sabía que la misma teoría era incompatible con los detalles de la órbita del planeta Mercurio, si bien los científicos no abandonaron la teoría por esta razón. Resultó que nunca fue posible explicar esta falsación de tal manera que la teoría de Newton quedara protegida (Chalmers, 1988) La concepción falsacionista sofisticada traslada el centro de atención de los méritos de una sola teoría a los méritos de teorías enfrentadas. La con- cepción estática propia del falsacionismo ingenuo, en términos de Chalmers, pregunta sobre la teoría ¿es falsable?, ¿ha sido falsada? En lugar de ello, el refutacionismo sofisticado pregunta "la teoría propuesta, ¿es un sustituto via- ble de aquella que desafía?, "¿es más falsable que su rival? Encontramos en Imre Lakatos una nueva interpretación del falsacionis- mo, intentando asimilar el desafío historicista planteado por Kuhn a la epis- temología. En la visión de Laicatos el problema metodológico no se centra en la falsación de teorías, sino en los criterios de evaluación entre teorías rivales. Para el falsacionista sofisticado, una teoría es "científica" sólo si tiene más contenido empírico corroborado que su rival. La tesis central del falsa- 208 ARGUMENTOS Y TEORÍAS cionismo refinado estriba en que una teoría nunca puede ser falsada por la observación ni por experimento alguno pero sí por otra teoría: ningún expe- rimento, informe experimental, enunciado observacional o hipótesis falsado- ra de bajo nivel bien corroborada puede originar por sí mismo la falsación. No hay falsación sin la emergencia de una teoría mejor. (Echeverría, 1999) Laicatos intenta sintetizar el falsacionismo popperiano incorporando ele- mentos de la teoría de los paradigmas de Kuhn, así como la idea de cambio de teoría como cambio de paradigma. Pero, a diferencia de Kuhn -quien resulta acusado de psicologismo, sociologismo o irracionalismo al negarse a justificar el cambio de paradigma- Lakatos no renuncia a proponer un cri- terio de elección racional entre teorías rivales. Desde su punto de vista, una teoría, en tanto conjetura, puede ser reemplazada por otra, pero no por cual- quiera entre las tantas que proliferan en momentos de crisis, sino por aquella que, en lo principal, incluya los mismos elementos, pero luego la supere al realizar predicciones exitosas. 5.7. Métodos estadísticos en ciencias naturales y en ciencias sociales Los estudios sobre la probabilidad están ligados a los juegos de azar y a las estadísticas de mortalidad y se supone que este estudio comenzó en la correspondencia entre Blas Pascal (1623-1662) y Pierre de Fermat (1608- 1665) acerca de la división apropiada de las apuestas en un juego de azar interrumpido. Cómo dividir el resultado de un juego de azar interrumpido era un problema de Estado en la época en que vivieron estos matemáticos, ya que era frecuente que los soldados se entretuvieran jugando a las cartas en los momentos de descanso en el frente de guerra, pero el juego se interrumpía bruscamente en cuanto fuera necesario reanudar la batalla. Encontrar una solución racional al problema era el único modo de evitar que las discusiones terminaran produciendo más bajas que la lucha contra el enemigo. Otra versión afirma que comenzó con los consejos que dio Pascal a Chevallier Capítulo 5 209 de Méré -conocido libertino y jugador de la época- acerca de cómo hacer las apuestas en los juegos de dados. En cuanto a su conexión con el estudio de la mortalidad, en 1662 el capitán John Graunt publicó un análisis de los registros de mortalidad conservados en Londres desde 1592. La teoría clásica sobre la probabilidad, tal como la formularon Laplace, De Morgan, Keynes y otros, admite que ella mide el grado de creencia racional. Cuando estamos plenamente convencidos de que algo ocurre, le otorgamos el valor 1. A la convicción contraria le otorgamos 0. Así, la creencia racional es un valor entre 1 y 0. Por ejemplo: sabemos que una moneda tiene 2 caras. La creencia acerca de cuál de las caras saldrá es una cifra entre 1 y 0 que en este caso es ½. De este modo, la probabilidad es siempre el resultado de un conocimiento parcial. En el caso de tirar la moneda, es imposible conocer todos los factores que concurren para saber de qué lado va a caer. El cálculo de probabilidades es una rama de la matemática donde puede calcularse la probabilidad de que algo complejo ocurra, si determinamos la probabilidad de lo que ocurre en sus partes. En un ejemplo de Copi (1984) el suceso complejo de que una pa- reja viva para celebrar sus bodas de oro es un todo cuyas partes son el suceso de que la esposa viva cincuenta años más, el de que el marido viva cincuenta años más y el de que no se produzca su separación. Algunos métodos experimentales, por ejemplo el método de la variación concomitante de Mill, necesita el uso de métodos estadísticos. Un antropó- logo puede estar interesado en medir la altura de los niños de 10 años en el Altiplano boliviano buscando establecer alguna relación entre el medio ambiente y el desarrollo físico de las personas al compararlo con otras medi- ciones en Suecia, China o Italia. Un físico que investiga la longitud de onda en determinada línea del espectro solar, en distintos experimentos puede obtener valores distintos y estará interesado en obtener conclusiones compa- rativas respecto a longitudes de ondas de otras líneas espectrales. Aún cuando se encuentren regularidades, el número de factores que intervienen puede ser grande. Sin embargo, reuniendo una cantidad de 210 ARGUMENTOS Y TEORÍAS números, es posible obtener tendencias muy generales. El servicio meteo- rológico sabe que hay múltiples factores en la atmósfera que determinan el estado del tiempo de cada día. Algunos de esos factores son completa- mente imprevisibles. Sin embargo, sobre la base de cálculos estadísticos, arriesgan un pronóstico. Se usa el concepto de promedio estadístico para analizar los resultados de mediciones. En general, se los utiliza con los siguientes objetivos: 1. Proporcionar una representación sinóptica de un grupo de datos. 2. Comparar diferenres grupos de datos. 3. Caracterizar a todo un grupo sobre la base de muestras tomadas por él. El promedio más conocido es la media aritmética. Se la obtiene sumando todas las cantidades del conjunto y dividiendo la suma por el número de términos. Cohen y Nagel, (1968), proporcionan el ejemplo de un estudiante que en los sucesivos días de la semana duerme 7, 6, 6, 5, 8, 7 y 9 horas: la media aritmética es 48/7 horas. Se observará que dicha cifra no corresponde al número de horas que duerme en ninguna noche. Esto indica claramente que los promedios indican características grupales, no brindan información acerca de ningún individuo del grupo. La media de las horas que duerme el estudiante puede expresarse en forma decimal del siguiente modo: 6,85714 horas, o sea, 6 horas, 51 minutos, 25,7 segundos. La aritmética de la cuestión es bastante exacta; pero el resultado será engañoso si induce a creer que la observación del tiempo dedicado al sueño es tan exacta. Quizás al ser consul- tado, el estudiante calcula aproximadamente, en horas, el tiempo que dedica al sueño. Si el tiempo real fue de 6 horas 15 minutos, puede haberlo com- putado simplemente como 6 horas. La precisión que resulta de un cálculo numérico es ficticia, a menos que las observaciones posean el mismo grado de exactitud. La media aritmética está vinculada con la teoría matemática de la proba- bilidad. En el caso anterior, el resultado de los cálculos aporta el valor más probable de las horas de sueño. Así se habla del "hombre medio", de "un estu- Capitulo 5 211 diante medio en Argentina" que no es ningún hombre o estudiante particu- lar sino la caracterización resultante de la aplicación de cálculos estadísticos sobre un grupo de individuos de una clase. El objeto de los estudios estadísticos es el descubrimiento de relaciones significativas dentro de un campo de estudio. Las cifras resultantes de los cálculos estadísticos sirven para comparar índices de mortalidad en distintos años, relaciones entre índices de mortalidad infantil y pobreza en distintos casos, accidentes de trabajo con horas de trabajo en distintas fábricas tratan- do de discernir si estos conjuntos de fenómenos están relacionados causal- mente o si son totalmente independientes unos de otros. Aún reconociendo la utilidad del uso de números estadísticos, podrían usarse de modo inco- rrecto si no se tienen en cuenta las suposiciones que exigen su uso. Cohén y Nagel enumeran estos ítems: 1. Los números estadísticos proporcionan información sobre carac- terísticas de un grupo, no de individuos del grupo. Sabiendo que aproximadamente la mitad de los bebés que nacen son varones, no podemos predecir el sexo del próximo bebé que nazca. 2. Sin un estudio adicional, no se pueden interpretar los resultados de los cálculos estadísticos. Suponiendo que el índice de suicidios sea constante durante varios años en un grupo, no se concluye que deban cometerse en los años siguientes. No se conocen todos los factores que intervienen en tal decisión (suponiendo que los hubiera) ni si se presentarán en el año siguiente. 3. Puede inducir a error la adjudicación de causalidad entre fenómenos por el hecho de que se presentan con cierta frecuencia juntos. Si se advierte que un porcentaje alto de sordomudos son deficientes men- tales, sin suposiciones adicionales, no se puede concluir que hay una relación causal significativa entre ambos fenómenos. 4. Cuando se sacan conclusiones sobre la base de "muestras" suelen cometerse muchas falacias, ya que las muestras pueden no ser im- parciales o pueden no ser representativas de la clase. Alguien puede 212 ARGUMENTOS Y TEORÍAS aducir que el índice de mortalidad en los marinos que intervienen en una guerra es más bajo que el índice de mortalidad en la ciudad X durante el mismo año. De allí concluye que es más seguro reclutarse que vivir en esa ciudad. La falacia se revela cuando advertimos que las variables intervinientes no son comparables. En una ciudad hay ancianos, niños que nacen con enfermedades incurables, accidentes de tránsito, mientras que la Marina recluta solamente hombres entre 18 y 35 años que superan un exigente examen físico. Es decir, Los dos grupos de comparación no son homogéneos en edad, salud, sexo, etc.

Use Quizgecko on...
Browser
Browser