APUNTES METODOS FINAL-TEORIA.docx
Document Details
Uploaded by MesmerizingKazoo
Universidad Nacional Agraria La Molina
Tags
Full Transcript
Pruebas no paramétricas relacionadas a diseños experimentales - La estadística no paramétrica no prioriza la naturaleza de la distribución de la población (principalmente el supuesto de normalidad) como requisito para poder realizar inferencia. - A parte del problema de los supuestos,...
Pruebas no paramétricas relacionadas a diseños experimentales - La estadística no paramétrica no prioriza la naturaleza de la distribución de la población (principalmente el supuesto de normalidad) como requisito para poder realizar inferencia. - A parte del problema de los supuestos, otro factor es cuando algunos experimentos producen respuestas que no es posible evaluar en la escala de razón (la mayoría de variables cuantitativas son medidas mediante la escala de razón) +-----------------------+-----------------------+-----------------------+ | Utilidad | Prueba Paramétrica | Prueba no Paramétrica | +=======================+=======================+=======================+ | Evaluación de una | Prueba T o Z para una | Prueba de Signos o | | media | muestra | Wilcoxon para una | | | | muestra | +-----------------------+-----------------------+-----------------------+ | Evaluación de la | Prueba de Z o T para | Prueba de la Mediana | | diferencia de dos | dos muestras | para dos muestras | | medias independientes | independientes | independientes o | | | | Prueba de Mann | | | | Whitney | +-----------------------+-----------------------+-----------------------+ | Evaluación de la | Prueba de Z o T para | Prueba de Signos o | | diferencia de dos | dos muestras | Wilcoxon para dos | | medias dependientes | pareadas. | muestras pareadas. | +-----------------------+-----------------------+-----------------------+ | Comparación de más de | ANVA-Diseño | Prueba de | | 2 medias sin ninguna | Completamente al Azar | Kruskal-Walls | | restricción | (D.C.A) | | | | | Prueba de la Mediana | | | | para más de dos | | | | muestras | | | | independientes | +-----------------------+-----------------------+-----------------------+ | Comparación de más de | ANVA-DBCA | Prueba de Friedman | | 2 medias comuna | | | | restricción | | | +-----------------------+-----------------------+-----------------------+ - Ventajas: - Permiten que la prueba de hipótesis no constituya afirmaciones cerca de valores de los parámetros poblacionales - Pueden utilizarse cuando se desconoce la distribución de la población muestreada. - Pueden utilizarse cuando los datos están referidos a las escalas nominal u ordinal. - Se utiliza cuando las muestras (n) son pequeñas - Desventajas: - El uso de procedimientos no paramétricos con datos que pueden manejarse con un procedimiento paramétrico conduce a una pérdida de información. - La aplicación de algunas pruebas puede ser laborioso - Prueba de Kruskal- Wallis: - Equivalente al DCA, es decir esta prueba puede ser utilizada cuando no se cumplen los supuestos de normalidad en las muestras con varianzas iguales. - Utilizada para probar si las medianas de K distribuciones son iguales. Si las distribuciones son simétricas, esta prueba equivale a la igualdad de medias. - Supuestos: - Las muestras a ser evaluadas son aleatorias y mutuamente excluyentes. - La variable respuesta esta medida en una escala al menos ordinal. - Los tamaños de muestras deben ser mayores o iguales a 5 - Prueba de Friedman: - Equivalente al DBCA, puede ser utilizada cuando no se cumplen los supuestos de normalidad en las muestras con varianzas iguales. - Utilizada en experimentos donde se consideran jueces para que evalúen diferentes productos - Apropiada para datos que se midan en una escala al menos ordinal, dispuestos a una clasificación de doble criterio (como por ejemplo evaluar el sabor de un producto en escala de 1-5) - Los experimentos factoriales involucran el estudio de 2 o más factores. Donde los tratamientos son combinaciones de los niveles de estos factores. - Estos permiten evaluar efectos principales, efectos de interacción y efectos simples. - Ventajas: - Obtener información sobre varios factores en forma simultanea - El incremento de grados de libertad para el error experimental disminuye la variancia del error experimental. - Amplía la base de inferencia en relación a un factor. - Desventajas: - Requiere un mayor número de unidades experimentales - Algunas combinaciones de niveles no suelen ser de interés para el investigador. - El análisis estadístico es más complicado y la interpretación de resultados también. - Tipos de Efectos: - Efectos principales: Miden los cambios en los niveles de un factor sin considerar el otro (A o B) - Efectos simples: Miden los cambios en los niveles de un factor manteniendo constante un nivel del otro (Ab, Ba) - Efecto de interacción: Mide los cambios en ellos efectos simples de un factor a diferentes niveles de otro factor (AB) - Modelo Aditivo Lineal - ANVA: ![](media/image2.png) ANALISIS DE CORRELACIÓN - Coeficiente de correlación de Pearson: - Es una medida de asociación existente entre dos variables cuantitativas. - Si r=1: perfecta correlación positiva ( todos los puntos caen sobre una pendiente positiva) - Si r=0 significa que no hay correlación - Si r=-1: perfecta correlación negativa (todos los puntos caen sobre una pendiente negativa) - Coeficiente de correlación de Spearman: - Es una prueba no paramétrica cuando se quiere medir la relación entre 2 variables y no se cumple el supuesto de normalidad en la distribución d tales valores. ANALISIS DE REGRESIÓN LINEAL SIMPLE - Tiene como propósito predecir o estimar una variable dependiente (Y) a partir de otra variable llamada independiente (X) a través de un modelo matemático. - El modelo poblacional de regresión lineal simple es: \ [\$\$\\beta\_{0}:parámetro\\ intercepto;\\beta\_{1}:Coeficiente\\ de\\ regresión\\ (este\\ indica\\ que\\ por\\ cada\\ incremento\\ unitario\\ en\\ X\\ repercute\\ de\\ \"b1\"\\ \\text{manera\\ en\\ }Y\$\$]{.math.display}\ - Modelo de regression estimado: - Supuestos: - Se asume que la variable independiente X es fija - La variable dependiente Y es aleatoria - Para cada valor de X existe una distribución normal de la variable Y - El error tiene distribución normal con media 0 y varianza constante - **Homocedasticidad:** Esta expresión indica que no hay dependencia entre las observaciones y tampoco entre los valores del error con los valores de **Xi** - El coeficiente de determinación (r^2^) mide el porcentaje de la variabilidad de la respuesta (Y) que es explicado por la variable predictora (X) ( su valor va de 0-1) - ANVA: - ![](media/image5.png) ANALISIS DE REGRESIÓN LINEAL MÚLTIPLE - En el análisis multivariado de variables, se analizan 2 o más variables en conjunto. - Usado para explicar la dependencia de una variable cuantitativa Y a partir de otras variables independientes (X~1~, X~2~,..., X~K~) - Tiene como objetivo predecir o estimar una variable dependiente (Y) mediante más de una variable independiente. - El incluir un mayor numero de variables independientes en el modelo supondría mayor precisión para la predicción de la variable dependiente. - Supuestos: - Las variables independientes X son fijas - La variable respuesta/dependiente Y es aleatoria - Para cada combinación de los valores de X existe una distribución normal multivariante para la variable Y. - El error tiene distribución normal con media 0 y varianza constante - **Homocedasticidad:** indica que no existe dependencia entre las observaciones y tampoco relación de los valores del error (ei) con los valores de **Yi** - No debe existir correlación o combinación lineal entre las variables independientes de X ( no debe haber efecto de Multicolinealidad) - ANVA - Covarianza: Variación simultanea de dos variables que se asume están influyendo sobre la variable respuesta - Sus objetivos son: - Disminuir el error experimental - Ajustar los promedios de los tratamientos - Hacer una mejor interpretación de los resultados de los experimentos. - Combinación de un modelo de regresión lineal (DEBE SER UN MODELO DE REGRESIÓN LINEAL) con un modelo Aditivo lineal (ANOVA) - Primero analizo el modelo de regresión lineal (B1=0, B1 diferente de 0) - Aplico el modelo aditivo Lineal ( u=0, u diferente de 0) - Supuestos: - Normalidad de errores / Homogeneidad de Variancias / Modelo de regresión lineal (simple o múltiple) - La variable X es fija, medida sin error no es afectada por los tratamientos - Las variables X e Y deben tener varianzas homogenes en los tratamientos - Las variables Xe Y deben tener distribución normal - La regresión de X sobre Y debe ser lineal - Los errores se distribuyen independientemente de formal normal con media cero y con variancia constante. - DCA-MODELO ADITIVO LINEAL: - De esto el Y: valor esperado en el i-estimo tratamiento y la j esima repetición - U: efecto de la media general - T: efecto del i-esimo tratamiento - B: coeficiente de regresión lineal de Y explicado por X - Xij: Valor de la variable independiente en el iesimo tratamiento y la jesima repetición - X: media de la variable independiente ![](media/image8.png) - Para aplicar las pruebas de comparación de medias de tratamientos se debe trabajar con las medias de los tratatamientos AJUSTADOS por la regresión. - En un DBCA - En el modelo aditivo lineal es el mismo solo añado [*γ*]{.math.inline}~j~: que es el efecto del j esimo bloque