Neuroimagen: Historia y Generalidades PDF

Summary

Presentación sobre la historia y las generalidades de la neuroimagen, enfocada en los principios físicos de las técnicas de neuroimagen y su uso en clínica e investigación. Se discuten los conceptos, análisis y procesamiento de neuroimágenes, su valor interpretativo y diagnóstico.

Full Transcript

Neuroimagen: historia y generalidades Asdrúbal Huerta Gallango MD / MSc 2024 Propósitos generales de este programa Introducir al alumno a los principios físicos de las distintas técnicas de neuroimagen de mayor uso en clínica e investigación durante el siglo XX y X...

Neuroimagen: historia y generalidades Asdrúbal Huerta Gallango MD / MSc 2024 Propósitos generales de este programa Introducir al alumno a los principios físicos de las distintas técnicas de neuroimagen de mayor uso en clínica e investigación durante el siglo XX y XXI Conocer los conceptos principales que se usan en el proceso de captura, análisis y procesamiento de neuroimágenes. Comprender el valor interpretativo obtenible a partir de las distintas neuroimágenes (y con ello el valor diagnóstico y de investigación para la generación de modelos putativos en neurociencias) Sentar las bases para el reconocimiento del tipo de imagen que se le presente Conocer la secuencia de análisis de una neuroimagen y reconocer estructuras normales en cada una. Propósitos generales de este programa A partir del conocimiento de la imagen normal, poder reconocer algunas anormalidades en neuroimagen cerebral Distinguir los conceptos de neuroimagen funcional versus estructural Reconocer los alcances y limitaciones prácticas en la clínica y las controversias actuales sobre el uso diagnóstico o de seguimiento terapéutico en neuroimagen cerebral (p.e. el concepto de biomarcador). Preparar al alumno para formar parte de equipos multidisciplinarios en los cuales las neuroimágenes jueguen un rol. Hacer consciente al alumno de sus posibilidades y limitaciones a partir del presente entrenamiento. Propósitos de esta sección Acceder al conocimiento general de la historia y los hitos más importantes del desarrollo de las neuroimágenes en investigación médica y en la clínica. Preparar al alumno en algunos conceptos básicos como el concepto de la relación señal a ruido y sus implicaciones en neuroimagen cerebral. Repasar los conceptos de planos anatómicos de incidencia en neuroimagen cerebral Revisar los posibles escenarios clínicos e investigativos de uso de las neuroimágenes Revisar las controversias epistemológicas pertinentes a las neurociencias como la idea de inferencia reversa, doble disociación, y de “activación / no activación” como modelo computacional representativo de la actividad cognitiva ¿Cómo interpreto una señal? Aunque parece la misma película no es lo mismo Neuroimagen Vs Neuroradiología La neuroimagen es el uso de técnicas cuantitativas (computacionales) para estudiar la estructura y función del sistema nervioso central, desarrolladas como estudio científico no invasivo del cerebro humano sano o enfermo cada vez se utiliza más para estudios cuantitativos de enfermedades cerebrales y psiquiátricas. La neuroimagen es un campo multidisciplinar en el que intervienen neurociencia, medicina, informática, psicología, biofísica o ingeniería biomédica y estadística, y no es una especialidad médica. Neuroimagen Vs Neuroradiología La neurorradiología es una especialidad médica que utiliza imágenes cerebrales no estadísticas en un entorno clínico. La neurorradiología se centra en reconocer lesiones cerebrales, como enfermedades vasculares, accidentes cerebrovasculares, tumores y enfermedades inflamatorias A diferencia de la neuroimagen, la neurorradiología es cualitativa (basada en impresiones subjetivas y una amplia formación clínica) a veces utiliza métodos cuantitativos básicos (por ejemplo la volumetría) Neuroimagen Vs Neuroradiología La neuroimagen es el uso de técnicas cuantitativas (computacionales) para estudiar la estructura y función del sistema nervioso central, desarrolladas como estudio científico no invasivo del cerebro humano sano o enfermo cada vez se utiliza más para estudios cuantitativos de enfermedades cerebrales y psiquiátricas. La neuroimagen es un campo multidisciplinar en el que intervienen neurociencia, medicina, informática, psicología, biofísica o ingeniería biomédica y estadística, y no es una especialidad médica. Neuroimagen Vs Neuroradiología Técnicas de imagen funcionales del cerebro, como la resonancia magnética magnética funcional (fMRI), son habituales en neuroimagen, pero raramente en neurorradiología. La neuroimagen se divide en dos grandes categorías: Las imágenes estructurales, y las imágenes funcionales, que se utilizan para estudiar la función cerebral. “la angiografía cerebral fue ideada por Egas Moniz en 1927, pero hasta pasados unos años en 1939, no fue adoptada por el resto de los neurocirujanos” Por ejemplo, para localizar patologías en pacientes con disfunción cognitiva Comparar el tamaño de estructuras cerebrales estructuras cerebrales específicas entre grupos de sujetos a través de análisis volumétrico. Junto con técnicas funcionales para para localizar la actividad cerebral. La primera técnica para obtener imágenes de la estructura cerebral fue la tomografía computarizada (TC). La RM proporciona información estructural detallada y permite distinguir a simple vista la materia gris (cuerpos celulares neuronales) de la blanca (tractos mielinizados). Tensor de difusión, se han desarrollado para visualizar los tractos mielinizados. Desarrollo normal y anormal de las de las vías neuronales en la infancia. El tensor de difusión (DTI) es una técnica de imagen por resonancia magnética (MRI) que utiliza secuencias potenciadas en difusión (DWI) para detectar el movimiento de las moléculas de agua en un medio biológico. Estas moléculas se desplazan a lo largo del espacio durante un determinado período de tiempo, y las secuencias DWI pueden tanto valorar cualitativamente como cuantificar este grado de movimiento. El tensor de difusión permite evaluar la integridad de las fibras nerviosas en la sustancia blanca. Técnicas funcionales Han sido la fuerza dominante en la neurociencia cognitiva Permiten aproximarse al cuándo y dónde se asocia la actividad cerebral a la capacidad de realizar una tarea cognitiva concreta. Estas técnicas nos permiten examinar el funcionamiento del cerebro humano a lo largo de la vida y en sujetos sanos o enfermos. Métodos paramétricos Es habitual diseñar varias variantes de tareas que difieren ligeramente en cuanto a las demandas de la tarea. A partir de las diferencias en la activación cerebral entre las variantes de la tarea nos permiten aislar estructuras cerebrales implicadas en procesos cognitivos. Por ejemplo, si se quisiera identificar regiones cerebrales implicadas en el mantenimiento activo de información en “la mente” (lo que se conoce como memoria de trabajo). Uno puede paramétricamente variar el número de elementos (la carga cognitiva) que los sujetos deben mantener y luego identificar las regiones cerebrales cuyo nivel de activación varió en función de la carga de la memoria de trabajo. Uno puede paramétricamente variar el número de elementos (la carga cognitiva) que los sujetos deben mantener y luego identificar las regiones cerebrales cuyo nivel de activación varió en función de la carga de la memoria de trabajo. La variación paramétrica: manipulación estadísticamente con más poder más poderosa en imagen funcional Otra aproximación más estándar comparar dos variantes de tareas que difieren únicamente en que la tarea 1, pero no la tarea 2 implican un proceso cognitivo específico. Se basa en el supuesto de la "inserción pura“: la suposición de que la inserción de una tarea afecta únicamente al proceso cognitivo de interés. Presupone La “inserción pura” presupone que no existe interacción entre las variables, que son independientes entre sí lo cual no es necesariamente correcto Se relaciona al método sustractivo en psicología cognitiva Una forma de resolver este problema es con métodos factoriales que identifican interacción entre variables Tipos de técnicas de neuroimagen funcional Existen diversas técnicas de neuroimagen funcional no invasiva para su uso en humanos Estas técnicas se clasifican en dos clases principales: medir directamente la actividad eléctrica asociada neuronal, como la electroencefalografía (EEG) y la magnetoencefalografía (MEG) y métodos de medición indirecta de la actividad neuronal La segunda clase, métodos de medición indirecta de la actividad neuronal La actividad neuronal se sustenta en un aumento del flujo sanguíneo local y la actividad metabólica. Estos métodos incluyen la tomografía por emisión de positrones (PET), la funcional (fMRI) y la espectroscopia cercana al infrarrojo (NIRS). Medidas directas de la actividad neuronal: EEG y MEG. El EEG es la técnica de imagen cerebral funcional más antigua, se remonta al descubrimiento de Berger en 1929 de que la actividad eléctrica cerebral se podía registrar electrodos colocados en el cuero cabelludo. Esta técnica se sigue utilizando hoy en día por su capacidad de proporcionar mediciones en tiempo real en tiempo real de la actividad cerebral. El EEG registra dipolos transitorios generados por el flujo neto de corriente eléctrica a través de la membrana celular durante la despolarización neuronal asociada a potenciales postsinápticos. El EEG se utiliza para medir la actividad neuronal durante diferentes estados cerebrales, como como el sueño y la vigilia. Una herramienta más potente para la neurociencia cognitiva que las mediciones globales del EEG son los potenciales relacionados a eventos, (potenciales evocados). Actividad EEG promediada a lo largo de una serie de ensayos desencadenados por el mismo acontecimiento (por ejemplo la visual). MEG Registra el campo magnético producido por actividad eléctrica. La señal medida por ambas técnicas se debe principalmente a la actividad de las neuronas piramidales El 70% de las células del neocórtex y están orientadas perpendicularmente a la superficie del cerebro El EEG registra la actividad perpendicular a la superficie La MEG registra la actividad orientada paralela a la superficie del cerebro. el EEG mide la actividad de las células piramidales en los giros corticales y la profundidad de los surcos MEG es sensible principalmente a la de las células piramidales en las partes superficiales de los surcos El principal problema de la EEG y la MEG es el denominado "problema inverso". El reto de identificar la fuente de la señal subyacente. Esta fuente puede encontrarse a gran distancia del punto del cuero cabelludo en el que se mide, y se puede afectar por la forma de la cabeza y la ubicación y orientación del dipolo. Algoritmos de localización de fuentes para determinar la fuente probable de una señal. Una ventaja de la MEG sobre la EEG es que la señal es menos sensible a factores como la forma de la cabeza (o la impedancia del cuero cabelludo, grasa, cráneo, etc). Medidas indirectas de actividad neuronal Roy y Sherrington demostraron por primera vez en 1890 que la estimulación cerebral provocaba un aumento local del flujo sanguíneo hacia poblaciones de neuronas activas Landau y otros usaron trazadores radioactivos para medir el flujo sanguíneo medir el flujo sanguíneo cerebral regional (rCBF) en animales (1955). En 1963 esta técnica se aplicó por primera vez a los seres humanos. El radiactivo más utilizado es el 15O2 Hoy en día se utiliza más la 18 - FDG Se inyecta en una vena el trazador radiactivo. El trazador entra en el cerebro después de aproximadamente 30 s rCBF (regional cerebral blood flow) durante este lapso de tiempo. La mayor ventaja de la PET sobre el método de uso más reciente fMRI es la elección del trazador radiactivo. Los investigadores pueden sintetizar compuestos radiofarmacéuticos que se unen a los receptores de dopamina o serotonina (C-11 o F-18 N-metilspiperona), receptores opiáceos (C-11 carfentanil), etc. Es probable que la PET siga siendo importante para comprender el papel de neurotransmisores en la cognición. Se ha propuesto recientemente como un objetivo secundario en los ensayos de medicamentos para la enfermedad de Alzheimer (Pittsburgh B Compound entre otros que marcan el Amiloide Beta). PET presenta varios inconvenientes que la han dejado rezagada frente a la fMRI como la medida indirecta más utilizada de la actividad actividad cerebral. Costo del ciclotrón (acelerador de partículas) Costo de los trazadores radioactivos Baja resolución temporal (1 minuto versus 6 – 8 segundos de fMRI) Invasividad fMRI es actualmente la técnica de imagen cerebral más utilizada cerebro por varias razones, entre ellas (1) la amplia disponibilidad generalizada de escáneres y tecnología de IRM, (2) el coste relativamente bajo por exploración, (3) la falta de riesgos reconocidos para los sujetos seleccionados adecuadamente, (4) la buena resolución espacial, y (5) mejor resolución temporal que otros métodos indirectos de neuroimagen. Además de observar que la actividad cerebral asociada a cambios locales en el flujo sanguíneo, Roy y Sherrington observaron que el aumento del total de sangre oxigenada total suministrada superaba con creces la demanda. Es este excedente de oxígeno lo que se detecta con la RMf, con lo que se conoce como contraste dependiente del nivel de oxígeno en sangre (BOLD). La hemoglobina oxigenada, u oxihemoglobina, tiene propiedades magnéticas diferentes de las de la desoxihemoglobina. Es este excedente de oxígeno lo que se detecta con la RMf, con lo que se conoce como contraste dependiente del nivel de oxígeno en sangre (BOLD). La hemoglobina oxigenada, u oxihemoglobina, tiene propiedades magnéticas diferentes de las de la desoxihemoglobina. La desoxihemoglobina es paramagnética. La desoxihemoglobina es la forma de hemoglobina de la sangre que no tiene oxígeno unido a ella. Cuando la hemoglobina pierde oxígeno, sus La desoxihemoglobina es paramagnética. La desoxihemoglobina es la forma de hemoglobina de la sangre que no tiene oxígeno unido a ella. Cuando la hemoglobina pierde oxígeno, sus propiedades magnéticas cambian y se vuelve paramagnética, lo que significa que tiene un momento magnético significativo y es atraída débilmente por un campo magnético aplicado externamente. Este cambio en las propiedades magnéticas altera la susceptibilidad magnética de la sangre. Un campo magnético intenso (normalmente de 1,5-4 tesla en humanos) permite medir los cambios en la proporción de oxihemoglobina y desoxihemoglobina en venas y vénulas y venas locales. Un aumento del flujo sanguíneo en respuesta a un estímulo específico (ya sea la estimulación cerebral o la presentación de un estímulo visual o auditivo) se Un aumento del flujo sanguíneo en respuesta a un estímulo específico (ya sea la estimulación cerebral o la presentación de un estímulo visual o auditivo) se denomina se denomina respuesta hemodinámica. Esta respuesta es lenta con respecto a la actividad neuronal subyacente; se estima que son alrededor de 6 segundos. La RMf de perfusión permite la medición directa de la respuesta hemodinámica, a diferencia de la RMf BOLD, que se basa en la comparación de respuestas hemodinámicas en condiciones diferentes. Sensibilidad mucho menor a la RMf. La espectroscopia de resonancia magnética se utiliza para medir la concentración relativa y la distribución de iones o compuestos específicos, como el hidrógeno, fósforo o carbono. Especialmente Creatina, Colina, N-Acetil Aspartato que son marcadores de actividad neuronal. Imágenes cerebrales ópticas. La NIRS funciona según el mismo principio que las técnicas de imagen cerebral óptica que se han utilizado en animales. Ambas técnicas aprovechan el hecho de que cambios en la concentración de hemoglobina en el tejido cortical afectan a la absorción de luz infrarroja por el tejido. la NIRS no es invasiva La dispersión de la luz por el cráneo reduce la resolución espacial. En los últimos años, Gratton, Fabiani y sus colegas han desarrollado un nuevo enfoque analítico para la NIRS, conocido como señal óptica relacionada con eventos (EROS). La señal EROS se basa en las propiedades ópticas del tejido cortical, que cambian, debido a la dispersión de la luz en función de la actividad neuronal. Este tipo de señal óptica está directamente vinculada a la actividad neuronal, en vez de al flujo sanguíneo Proporciona una resolución temporal mucho mayor que la que la señal analizada normalmente en los estudios NIRS. Alta resolución espacial área de menos de 1 cm3. Sólo miden actividad en la superficie del cerebro o cerca de ella (entre 3 y 5 cm de la superficie). No son tan sensibles al movimiento de la cabeza como la RMf, son muy prometedoras para el estudio de poblaciones clínicas y niños. Neuroimagen estructural y funcional. Perspectiva de los años 90s Trade – Off entre resolución temporal y espacial Las medidas directas de la actividad neural, como el EEG y la MEG, tienen una resolución temporal exquisita. Son sensibles a los cambios en la actividad neural con una resolución de 1 milisegundo. Sin embargo, estos métodos tienen una desventaja en el sentido de que es difícil determinar con precisión el sitio preciso de la señal. En cambio, las medidas indirectas de actividad neural tienen mejor resolución espacial que el EEG o MEG, pero una resolución temporal deficiente. Actualmente existe entre una compensación entre una alta precisión temporal y alta precisión espacial; se sacrifica una u otra. Una solución a este problema es utilizar datos de RMf para delimitar las posibles fuentes de actividad neuronal en los datos de EEG y MEG. Otra solución, aún más difícil, es la obtención de imágenes multimodales, por ejemplo, la adquisición simultánea de datos de fMRI y EEG. Ventajas y limitaciones de las técnicas de neuroimagen Un claro inconveniente de las técnicas de neuroimagen es que, a diferencia de las técnicas lesionales y neuropsicológicas no pueden demostrar la necesidad de una región del cerebro para un proceso cognitivo concreto. Las técnicas de neuroimagen pueden demostrar que humanos sin daño neurológico reclutan rutinariamente esta región para realizar la tarea. Es posible comparar los niveles de activación entre individuos y afirmar que una mayor activación de esta región se asocia a un mejor rendimiento en una tarea. Incluso, es posible comparar la activación entre ensayos de un mismo individuo y afirmar que en los ensayos en los que en los que el sujeto cometió un error, la activación fue menor en esta región que en las pruebas en las que el sujeto respondió correctamente. Aparearse con técnicas para interrumpir temporalmente la actividad neuronal de forma precisa temporalmente y espacialmente (estimulación magnética transcraneal). Las técnicas de neuroimagen presentan varias ventajas sobre las neuropsicológicas. En primer lugar, los estudios neuropsicológicos se basan necesariamente en el resultado de la conducta como una medida dependiente crítica, mientras que los estudios de neuroimagen pueden centrarse en procesos cognitivos que tienen lugar antes de una respuesta o no están asociados a una respuesta conductual. Por ejemplo, es imposible determinar por métodos neuropsicológicos si las lesiones que provocan un deterioro de la memoria a largo plazo a largo plazo están asociadas a un déficit de codificación y/o recuperación. las imágenes cerebrales permiten identificar regiones del cerebro regiones cerebrales asociadas a la codificación por separado de las regiones cerebrales relacionadas con la recuperación efectiva. Las técnicas de neuroimagen permiten identificar el circuito (hipotético) neural subyacente a un proceso cognitivo. Los estudios de lesiones en animales sólo pueden lograrlo poco a poco, lesionando cada área por separado. Los estudios neuropsicológicos en humanos lo tienen difícil dada la limitada disponibilidad de pacientes con lesiones cerebrales específicas altamente delimitadas. Con los estudios de lesiones es posible pasar por alto por completo -o, por el contrario, sobreestimar la contribución de una región específica a la función cognitiva. Por ejemplo, el hipocampo se ha considerado durante mucho tiempo la principal que contribuye a la codificación y recuperación de los recuerdos. Sin embargo, las imágenes cerebrales han demostrado que, en el cerebro sano, el córtex prefrontal contribuye a la codificación y recuperación de la memoria. La limitada disponibilidad de pacientes neuropsicológicos: las técnicas de neuroimagen permiten examinar el papel de una determinada región en la cognición aunque no se tenga acceso a grupos de pacientes con lesiones específicas. Muy difícil encontrar un paciente con una lesión limitada a la región que nos interesa La reorganización cortical puede conducir a la recuperación de la función con el tiempo, lo que podría llevar a suponer erróneamente que una región cerebral lesionada no está normalmente implicada en un proceso cognitivo específico. Las técnicas de neuroimagen de alta resolución temporal, como el EEG y la MEG, nos proporcionan pistas importantes sobre los mecanismos cerebrales. Resulta útil decir que las regiones cerebrales X e Y están en la fase de recuperación de recuerdos, pero si podemos decir que la región X del cerebro se activa poco después de la región Y, podemos empezar a comprender la cascada o secuencia de eventos que conducen a la recuperación de la memoria. La neuropsicología cognitiva utiliza patrones de deterioro y preservación en pacientes tras una lesión cerebral para intentar traducir en teorías de estructuras y procesos cognitivos normales. Surgió como un programa de investigación específico en los años sesenta y a finales de los ochenta ya tenía su propia revista (volumen 1, 1984) y su propio libro de texto (Ellis y Young, 1988/1990).(Ellis y Young, 1988/1996). En la práctica de la neuropsicología cognitiva, se ha destacado el valor probatorio de la doble disociación como apoyo para afirmaciones sobre módulos separados en el sistema cognitivo normal. Karalyn Patterson y David Plaut afirman que "el patrón oro siempre fue una doble disociación” (2009, p. 43) y describen la "lógica tradicional de la neuropsicología cognitiva que descansa en la suposición de que "la organización funcional de la cognición puede ser inequívocamente revelada por la disociación" (p. 44). Supuestos para una neuropsicología cognitiva Como enfoque de la investigación de las estructuras y procesos cognitivos normales, la neuropsicología cognitiva se basa en una serie de supuestos. El primero es que la mente es modular. La noción genérica de modularidad resulta familiar en la vida cotidiana donde los muebles y los equipos de música se describen como "modulares". Cada uno de ellos contribuye de forma independiente a la funcionalidad o el rendimiento del sistema en su conjunto. En el contexto de la neuropsicología cognitiva, el supuesto de modularidad es que el sistema cognitivo normal está formado por componentes cognitivos independientes. El segundo supuesto es que, cuando se daña un componente cognitivo no se produce una reorganización masiva de la estructura modular anterior. En consecuencia, los componentes no dañados siguen funcionando como antes, en la medida en que sea compatible con el funcionamiento deficiente del componente dañado. Alfonso Caramazza (1986, p. 52) lo denomina supuesto de transparencia. Coltheart lo llama Coltheart lo denomina supuesto de sustracción (2001, p. 10): El daño cerebral puede alterar o eliminar cajas o flechas [componentes] existentes en el sistema, pero no puede introducir otros nuevos. es decir, puede sustraer del sistema, pero no puede añadirle nada". Tras una lesión cerebral que afecte al método normal de realizar una tarea, uno puede seguir realizando la tarea o aprender de nuevo a realizarla, y alcanzar niveles normales de rendimiento utilizando una estrategia compensatoria. Una estrategia compensatoria puede no requerir nuevos componentes cognitivos, sino simplemente hacer un uso novedoso del funcionamiento de componentes intactos del sistema normal. El tercer supuesto es que la estructura modular o la arquitectura funcional de la mente en su conjunto y de los sistemas cognitivos responsables de la de tareas concretas, es la misma para todos los sujetos normales (neurológicamente intactos). Supuestos para una neuropsicología cognitiva Como enfoque de la investigación de las estructuras y procesos cognitivos normales, la neuropsicología cognitiva se basa en una serie de supuestos. El primero es que la mente es modular. La noción genérica de modularidad resulta familiar en la vida cotidiana donde los muebles y los equipos de música se describen como "modulares". Cada uno de ellos contribuye de forma independiente a la funcionalidad o el rendimiento del sistema en su conjunto. En el contexto de la neuropsicología cognitiva, el supuesto de modularidad es que el sistema cognitivo normal está formado por componentes cognitivos independientes. Supuestos para una neuropsicología cognitiva Como enfoque de la investigación de las estructuras y procesos cognitivos normales, la neuropsicología cognitiva se basa en una serie de supuestos. El primero es que la mente es modular. La noción genérica de modularidad resulta familiar en la vida cotidiana donde los muebles y los equipos de música se describen como "modulares". Cada uno de ellos contribuye de forma independiente a la funcionalidad o el rendimiento del sistema en su conjunto. En el contexto de la neuropsicología cognitiva, el supuesto de modularidad es que el sistema cognitivo normal está formado por componentes cognitivos independientes. Supuestos para una neuropsicología cognitiva Como enfoque de la investigación de las estructuras y procesos cognitivos normales, la neuropsicología cognitiva se basa en una serie de supuestos. El primero es que la mente es modular. La noción genérica de modularidad resulta familiar en la vida cotidiana donde los muebles y los equipos de música se describen como "modulares". Cada uno de ellos contribuye de forma independiente a la funcionalidad o el rendimiento del sistema en su conjunto. En el contexto de la neuropsicología cognitiva, el supuesto de modularidad es que el sistema cognitivo normal está formado por componentes cognitivos independientes. Supuestos para una neuropsicología cognitiva Como enfoque de la investigación de las estructuras y procesos cognitivos normales, la neuropsicología cognitiva se basa en una serie de supuestos. El primero es que la mente es modular. La noción genérica de modularidad resulta familiar en la vida cotidiana donde los muebles y los equipos de música se describen como "modulares". Cada uno de ellos contribuye de forma independiente a la funcionalidad o el rendimiento del sistema en su conjunto. En el contexto de la neuropsicología cognitiva, el supuesto de modularidad es que el sistema cognitivo normal está formado por componentes cognitivos independientes. Supuestos para una neuropsicología cognitiva Como enfoque de la investigación de las estructuras y procesos cognitivos normales, la neuropsicología cognitiva se basa en una serie de supuestos. El primero es que la mente es modular. La noción genérica de modularidad resulta familiar en la vida cotidiana donde los muebles y los equipos de música se describen como "modulares". Cada uno de ellos contribuye de forma independiente a la funcionalidad o el rendimiento del sistema en su conjunto. En el contexto de la neuropsicología cognitiva, el supuesto de modularidad es que el sistema cognitivo normal está formado por componentes cognitivos independientes. Supuestos para una neuropsicología cognitiva Como enfoque de la investigación de las estructuras y procesos cognitivos normales, la neuropsicología cognitiva se basa en una serie de supuestos. El primero es que la mente es modular. La noción genérica de modularidad resulta familiar en la vida cotidiana donde los muebles y los equipos de música se describen como "modulares". Cada uno de ellos contribuye de forma independiente a la funcionalidad o el rendimiento del sistema en su conjunto. En el contexto de la neuropsicología cognitiva, el supuesto de modularidad es que el sistema cognitivo normal está formado por componentes cognitivos independientes. Supuestos para una neuropsicología cognitiva Como enfoque de la investigación de las estructuras y procesos cognitivos normales, la neuropsicología cognitiva se basa en una serie de supuestos. El primero es que la mente es modular. La noción genérica de modularidad resulta familiar en la vida cotidiana donde los muebles y los equipos de música se describen como "modulares". Cada uno de ellos contribuye de forma independiente a la funcionalidad o el rendimiento del sistema en su conjunto. En el contexto de la neuropsicología cognitiva, el supuesto de modularidad es que el sistema cognitivo normal está formado por componentes cognitivos independientes. Doble disociación “I reject the claim that the practice of cognitive neuropsychology is based on assumptions about a special logic. Specifically, I reject the claim that cognitive neuropsychology relies on an assumption that the inference from a pattern of impairment and sparing to a structure of separate cognitive modules is underwritten by a special deductive rule of double dissociation inference.” Rechazo la afirmación de que la práctica de la neuropsicología cognitiva se base en suposiciones sobre una lógica especial. Específicamente, Rechazo la afirmación de que la neuropsicología cognitiva se base en un supuesto de que la inferencia a partir de un patrón de deficiencia y preservación a una estructura de módulos cognitivos separados está respaldada por una regla deductiva especial de doble disociación. Hans-Lukas Teuber: especificidad de función Lashley: Hans-Lukas Teuber: pluripotencialidad especificidad de función Teuber propuso que se obtendrían mejores pruebas de la especificidad de la función si las lesiones temporales produjeran una disociación unidireccional: la discriminación táctil se preserva mientras que la visual se ve afectada, y si las lesiones de alguna otra área produjeran el patrón inverso de disociación. A este patrón combinado de disociación doble. Definición de doble disociación de Teuber. Un paciente con lesión cerebral (A) muestra un rendimiento sin alteraciones en la Tarea I (por ejemplo, discriminación táctil) pero sí en la Tarea II (por ejemplo, discriminación visual), mientras que un segundo paciente (B), con una lesión diferente, muestra el patrón inverso, sin alteraciones en la Tarea II, pero deficiente en la Tarea I. El argumento de la doble disociación para separar la localización de las funciones es el siguiente: El hecho de que el paciente A esté afectado en la Tarea II apoya la hipótesis de que la Tarea II está localizada en un área que incluye el lugar de la lesión del paciente A. El patrón de alteración y preservación del paciente B aporta pruebas para otras dos hipótesis. En primer lugar, el hecho de que el paciente B no presente alteraciones en la Tarea II apoya la hipótesis de que el área en la que se localiza la Tarea II no se extiende tan lejos como el lugar de la lesión del paciente B. En segundo lugar, el hecho de que el paciente B esté afectado en la Tarea I apoya la hipótesis de que el patrón de alteración y preservación del paciente A no puede explicarse apelando a diferentes niveles de complejidad para las dos tareas. Así pues, la doble disociación proporciona pruebas de que la Tarea II está localizada en un área que incluye el lugar de la lesión del paciente A, que no está implicada en la Tarea I. Dado que una doble disociación es simétrica, también demuestra que la Tarea I está localizada en un área zona, incluida la zona de la lesión del paciente B, que no está implicada en la Tarea II. Teuber no se limitó a decir que la doble disociación demuestra mejor la especificidad de la función que la simple disociación unidireccional. Dijo que la doble disociación es "lo que se necesita para una prueba concluyente" (1955, p. 283; énfasis añadido).Esto puede sugerir que la doble disociación proporciona una garantía lógica de especificidad funcional, pero hace tiempo que se sabe que tal sugerencia sería incorrecta. En uno de sus primeros comentarios, Lawrence Weiskrantz habla de "la insuficiencia lógica de la doble disociación para hacer una inferencia" (1968, p. 419) y más tarde reafirma más tarde (1989, p. 105): La conclusión no se sigue con certeza lógica; es un argumento pragmático, pero no por ello menos valioso". Los inicios de la neuropsicología cognitiva: modelos jerárquicos versus heterárquicos. Los estudios de pacientes con problemas de memoria constituyen un ejemplo temprano del enfoque de la neuropsicología cognitiva. Consideremos un modelo de memoria normal en el que la de la memoria a largo plazo pasa por la memoria a corto plazo, de modo que la memoria a largo plazo requiere todo lo que requiere la memoria a corto plazo y más. Un modelo jerárquico de este tipo permite explicar el patrón de deterioro de la memoria que presenta el paciente HM, estudiada por Brenda Milner y sus colegas (Scoville y Milner, 1957) (Scoville y Milner, 1957; Milner, Corkin y Teuber, 1968). Tras una intervención quirúrgica para extirpar partes del lóbulo temporal medial a ambos lados del cerebro, HM no podía almacenar información a largo plazo, aunque su memoria a corto plazo estaba intacta. Pero el paciente KF (Warrington y Shallice, 1969; Shallice y Warrington, 1970) mostraba una memoria a corto plazo deteriorada y una memoria a largo plazo intacta. Traumatismo craneoencefálico que causó daños en el parietal izquierdo Malos resultados en la prueba Digit Span y, cuando se le presentaban dos cifras, sólo podía recordar la primera Sin embargo, su capacidad para memorizar material nuevo a largo plazo en la subprueba de Aprendizaje por parejas de la Escala de memoria de Wechsler Tim Shallice (1988) informa de que, cuando escuchó por primera vez de Elizabeth Warrington la sugerencia de que el paciente KF tenía alterada la memoria a corto plazo pero intacta la memoria a largo plazo, le dijo que "esto era teóricamente imposible“ El impresionante artículo de Waugh y Norman (1965) acababa de aparecer, y parecía establecer la relación entre la memoria a corto y a largo plazo De forma similar, el rendimiento en lectura del paciente GR (Marshall y Newcombe, 1966, 1973) puso en tela de juicio el modelo jerárquico entonces dominante de la comprensión lectora como dependiente de la mediación fonológica. Según este modelo, el acceso a la semántica léxica a partir de la ortografía requiere la conversión de la ortografía a fonología y luego, como para las palabras habladas, el acceso a la semántica léxica Tras una grave lesión por proyectil en la región temporo-parietal izquierda, el paciente GR a menudo producía errores semánticos cuando se le pedía que leyera palabras sueltas en voz alta. Por ejemplo, leía "hija" como "hermana" y "culpable" como "verdugo". GR era incapaz de lograr la conversión prelexical de la ortografía a la fonología; cuando leyó la palabra "culpable" como "verdugo", no acertó ni un solo fonema. Pero GR consiguió cierto acceso a la semántica léxica pues la palabra pronunciada estaba relacionada semánticamente con la palabra presentada ortográficamente y, al parecer, estaba limitada semánticamente por ella. El paciente GR era capaz de acceder a la semántica léxica a partir de la ortografía sin una conversión preléxica de la ortografía a la fonología, contrariamente al modelo dominante en aquel momento. En estos dos ejemplos de los primeros trabajos en neuropsicología cognitiva, los patrones de los pacientes, KF y GR, desplazaron a los modelos dominantes jerárquicos o de ruta única de la memoria y la lectura hacia un modelo heterárquico. Brenda Milner HM Henry Molaison Doble disociación Razonamiento abductivo e inferencias reversas: la nueva frenología Un debate central se refiere a si la abducción tiene una función principalmente heurística -la de generar nuevas hipótesis explicativas y ayudar al descubrimiento- o también una función justificativa, la de evaluar y posiblemente aceptar hipótesis seleccionadas. Razonamiento abductivo e inferencias reversas: la nueva frenología La resonancia magnética funcional (fMRI) desempeña un papel crucial en la exploración de la actividad cerebral. Esta técnica se utiliza de dos formas distintas. En primer lugar, los neurocientíficos construyen mapas cerebrales estudiando qué regiones se activan con los distintos procesos mentales (como los provocados por distintas tareas, por ejemplo, el reconocimiento de caras o el procesamiento del lenguaje). Es lo que se denomina inferencia directa. En segundo lugar, los investigadores emplean habitualmente la estrategia de razonamiento inverso, deduciendo de patrones de activación específicos la participación de procesos mentales concretos Diagnóstico de trastornos en pacientes con patologías cerebrales adquiridas, como la esquizofrenia y la enfermedad de Alzheimer (Costa et al. 2020), los conocidos estudios experimentales sobre razonamiento moral de los que fueron pioneros Greene et al. (2001), y la mayoría de los estudios de la llamada neuroeconomía (Bourgeois-Gironde 2010). Russell Poldrack (2006) denunciara una "epidemia" incontrolada de este patrón de razonamiento, advirtiera contra su uso (inadecuado) y señalara su debilidad crucial. En trabajos posteriores, Poldrack y colaboradores aplicaron técnicas de aprendizaje automático y minería de datos (el proyecto NeuroSynth, véase Yarconi et al. 2011). Inferencias reversas y la nueva frenología el caso de James Fallon Hastings Center Report - 2014 - Farah - Brain Images Babies and Bathwater Critiquing Critiques of Functional Relación señal a ruido Medida utilizada en ciencia e ingeniería que compara el nivel de una señal deseada con el nivel de ruido de fondo La SNR se define como la relación entre la potencia de la señal y la potencia del ruido A menudo expresada en decibelios Una relación superior a 1:1 (mayor que 0 dB) indica más señal que ruido La SNR es un parámetro importante que afecta al rendimiento y la calidad de los sistemas que procesan o transmiten señales, como los sistemas de comunicación, los sistemas de audio, los sistemas de radar, los sistemas de imagen y los sistemas de adquisición de datos. Una SNR alta significa que la señal es clara y fácil de detectar o interpretar, mientras que una SNR baja significa que la señal está corrompida u oscurecida por el ruido y puede ser difícil de distinguir o recuperar. La SNR puede mejorarse por varios métodos, como aumentar la intensidad de la señal, reducir el nivel de ruido, filtrar el ruido no deseado o utilizar técnicas de corrección de errores. Una definición de la relación señal/ruido es la relación entre la potencia de una señal (entrada significativa) y la potencia del ruido de fondo (entrada sin sentido o no deseada): donde P es la potencia media. Tanto la potencia de la señal como la del ruido deben medirse en los mismos puntos o en puntos equivalentes de un sistema, y dentro del mismo ancho de banda del sistema. La relación señal/ruido de una variable aleatoria (S) respecto al ruido aleatorio N es: donde E se refiere al valor esperado, que en este caso es el cuadrado medio. Si la señal es simplemente un valor constante de s, esta ecuación se simplifica a: Si el ruido tiene valor esperado cero, como es habitual, el denominador es su varianza, el cuadrado de su desviación típica σN. Una definición alternativa de SNR es la recíproca del coeficiente de variación, es decir, la relación entre la media y la desviación estándar de una señal o medida Esta definición alternativa sólo es útil para variables que son siempre no negativas (como el recuento de fotones y la luminancia) Se utiliza habitualmente en el tratamiento de imágenes Uso de la inteligencia artificial en neuroimagen Conclusiones y comentarios finales Gracias

Use Quizgecko on...
Browser
Browser