MÓDULO 2 Probabilidad e Inferencia Estadística PDF
Document Details
Uploaded by Deleted User
Tags
Summary
Este documento proporciona una guía de aprendizaje sobre los principios básicos de probabilidad e inferencia estadística, destacando su aplicación en la toma de decisiones empresariales. Se abordan temas como eventos aleatorios, variables aleatorias, funciones de probabilidad y densidad, y el teorema del límite central. También se incluye una introducción a la estimación puntual, las pruebas de hipótesis, y diferentes tipos de pruebas (bilaterales y unilaterales).
Full Transcript
MÓDULO: 2 Probabilidad e inferencia estadística La guía de aprendizaje se enfoca en los principios básicos de la probabilidad que dan sustento a dos de las técnicas más utilizadas para dar respuestas a problemas e interrogantes concretos en el ámbito de la toma de decisiones basada en datos. La pr...
MÓDULO: 2 Probabilidad e inferencia estadística La guía de aprendizaje se enfoca en los principios básicos de la probabilidad que dan sustento a dos de las técnicas más utilizadas para dar respuestas a problemas e interrogantes concretos en el ámbito de la toma de decisiones basada en datos. La probabilidad proporciona un marco matemático para manejar la incertidumbre y el riesgo. Los eventos aleatorios y las variables aleatorias son conceptos clave en este campo. La función de probabilidad y la función de densidad son utilizadas para describir la distribución de las variables aleatorias discretas y continuas, respectivamente. Un pilar de la teoría de probabilidad es el Teorema Central del Límite. Este teorema tiene implicaciones prácticas significativas para el muestreo, ya que permite realizar inferencias sobre una población a partir de muestras relativamente pequeñas, facilitando así decisiones informadas en situaciones de incertidumbre. Estos tópicos ocupan la primera parte de la guía. El concepto de estimación implica el uso de datos muestrales para inferir parámetros desconocidos de una población. En el contexto empresarial, estas estimaciones permiten a las empresas tomar decisiones informadas basadas en datos parciales. Por otro lado, las pruebas de hipótesis permiten evaluar afirmaciones o suposiciones sobre parámetros poblacionales. Los errores tipo I y tipo II, relacionados con la incorrecta aceptación o rechazo de hipótesis nulas, son consideraciones críticas en estas pruebas. En el ámbito empresarial, las pruebas de hipótesis referidas a la media, la proporción, la diferencia de medias y la diferencia de proporciones son utilizadas para validar estrategias, evaluar cambios y mejorar procesos, proporcionando una base estadística para decisiones críticas como lanzamientos de productos, estrategias de marketing y optimización de operaciones. Unidad 1. Lo aleatorio y la toma de decisiones Unidad 2. Estimación de parámetros: puntual y por intervalos Unidad 3. Concepto de prueba de hipótesis. Errores tipo I y tipo II Unidad 4. Pruebas de hipótesis referidas a la media, la proporción, la diferencia de medias(...) Desafío Videos conceptuales Referencias Lección 1 de 7 Unidad 1. Lo aleatorio y la toma de decisiones Unidad 1. Lo aleatorio y la toma de decisiones Lo determinístico vs. lo estocástico para la toma de decisiones La toma de decisiones en el ámbito empresarial puede ser vista desde dos perspectivas: la determinística y la estocástica. En un modelo determinístico, los resultados de una decisión están completamente determinados por las condiciones iniciales, sin lugar para la incertidumbre. Las decisiones determinísticas se basan en la certeza de los resultados. Los modelos estocásticos aceptan que existen múltiples posibles resultados debido a la influencia de variables aleatorias. En situaciones donde la información es completa y no hay incertidumbre, se pueden predecir los resultados con precisión. Por ejemplo, en una línea de producción bien controlada donde se conoce cada paso del proceso, las decisiones determinísticas pueden ser muy efectivas. En contraste, las decisiones estocásticas reconocen y gestionan la incertidumbre. Se usan modelos probabilísticos para predecir diferentes resultados y sus respectivas probabilidades. En el entorno empresarial, la mayoría de las decisiones son estocásticas debido a la incertidumbre inherente a factores como el mercado, la competencia y las preferencias del cliente. En un entorno determinístico, si una empresa decide invertir en maquinaria nueva basándose únicamente en los costos y beneficios proyectados, la decisión es directa y sin imprevistos. Sin embargo, en un modelo estocástico, la misma decisión consideraría factores aleatorios como fallos tecnológicos, cambios en los precios de las materias primas y fluctuaciones en la demanda, haciendo uso de distribuciones de probabilidad para evaluar diferentes escenarios. FastDelivery, la empresa de logística y distribución de paquetes a domicilio que venimos analizando, puede decidir optimizar sus rutas de entrega basándose en un modelo determinístico que considera únicamente la distancia y el tiempo. Sin embargo, en un modelo estocástico, FastDelivery también consideraría factores aleatorios como el tráfico, condiciones climáticas y la variabilidad en la demanda de entregas, utilizando distribuciones de probabilidad para evaluar diferentes escenarios de entrega. Eventos aleatorios y variables aleatorias. Un evento aleatorio es cualquier resultado que no puede ser predicho con certeza. Un evento aleatorio es un fenómeno cuyo resultado no se puede predecir con certeza debido a la presencia de múltiples resultados posibles. Por ejemplo, el lanzamiento de un dado es un evento aleatorio con seis posibles resultados, cada uno con una probabilidad de 1/6. En muchas ocasiones no es posible asegurar previamente cuál va a ser el resultado de una cierta situación, si bien en algunos pueden determinarse los posibles resultados e incluso algún grado de posibilidad de que tal evento ocurra. Estos componentes dan lugar a un concepto central, la probabilidad. La probabilidad es una medida que cuantifica la posibilidad de que ocurra un evento específico. Se expresa como un número entre 0 y 1, donde 0 indica que el evento no ocurrirá y 1 indica que el evento ocurrirá con certeza. La probabilidad se utiliza ampliamente en diversos campos como la estadística, las matemáticas, la economía y las ciencias naturales. Existen varios enfoques para calcular la probabilidad: Enfoque Clásico o Teórico: Este enfoque se basa en la suposición de que todos los resultados posibles de un experimento son igualmente probables. La probabilidad de un evento se calcula como el número de resultados favorables dividido por el número total de resultados posibles. Por ejemplo, al lanzar un dado justo de seis caras, la probabilidad de obtener un 3 es 1661. Enfoque Frecuentista: Este enfoque define la probabilidad como el límite de la frecuencia relativa de un evento cuando el experimento se repite un gran número de veces. Por ejemplo, si lanzamos una moneda 1000 veces y obtenemos cara 520 veces, la probabilidad de obtener cara se estima como 0.52. Enfoque Subjetivo: Este enfoque considera la probabilidad como una medida del grado de creencia o confianza que una persona tiene en que ocurra un evento, basado en la información disponible. Este enfoque es común en situaciones donde no hay datos históricos suficientes o el evento es único. Enfoque Axiomático: Desarrollado por Andrey Kolmogorov, este enfoque establece una serie de axiomas (reglas básicas) que la probabilidad debe cumplir. Estos axiomas proporcionan una base matemática sólida para la teoría de la probabilidad y permiten derivar propiedades adicionales. Cada uno de estos enfoques tiene sus aplicaciones y es útil en diferentes contextos para calcular y entender las probabilidades de eventos. Los diferentes conceptos de probabilidad de eventos incluyen la probabilidad simple, la probabilidad compuesta, la probabilidad condicional y la probabilidad conjunta. A continuación, se explica cada uno con un ejemplo aplicado a negocios y sus fórmulas de cálculo: Probabilidad Simple: Es la probabilidad de que ocurra un solo evento específico. Ejemplo: En una empresa que vende tres productos (A, B y C), la probabilidad de que un cliente elija el producto A es de 0.3 (30%). Para calcular esta probabilidad se considera: P(A)=Número de resultados favorables a A /Número total de posibles resultados Cálculo: Si hay 100 clientes y 30 eligen el producto A, entonces P(A)=30/100=0.3 Probabilidad Compuesta: Es la probabilidad de que ocurran dos o más eventos simultáneamente (eventos independientes). Si la probabilidad de que un cliente compre el producto A es 0.3 y la probabilidad de que el mismo cliente compre el producto B es 0.4, y los eventos son independientes, la probabilidad de que el cliente compre ambos productos A y B es 0.3×0.4=0.12 (en términos porcentuales, como se expresa en ámbitos coloquiales, equivale al 12%). Fórmula: P(A∩B)=P(A)⋅P(B), para eventos independientes. Probabilidad Condicional: Es la probabilidad de que ocurra un evento dado que otro evento ya ha ocurrido. Ejemplo: En una tienda, la probabilidad de que un cliente compre un accesorio (evento B, con P(B)=0.2) dado que ha comprado un teléfono (evento A, cuya probabilidad es P(A)=0.4), esa probabilidad condicional es P(B/A) = 0.5. Para su cálculo se utiliza la fórmula: P(B∣A)=P(A∩B)P(A) En el ejemplo anterior, si aplicamos la fórmula indocada resulta: P(B∣A)=0.20.4=0.5. Probabilidad Conjunta: Es la probabilidad de que ocurran dos o más eventos simultáneamente (eventos dependientes). Ejemplo: En un almacén, la probabilidad de que un cliente compre productos A y B juntos es 0.1 (10%). Fórmula: P(A∩B)=P(A)⋅P(B∣A) o P(A∩B)=P(B)⋅P(A∣B) Cálculo: Si la probabilidad de comprar el producto A es 0.4 y la probabilidad de comprar el producto B dado que ya se compró el producto A es 0.25, entonces P(A∩B)=0.4×0.25=0.1. Más allá de la probabilidad de eventos, en estadística consideramos una perspectiva algo más abstracta, que consiste en asociar diferentes resultados de un evento aleatorio con un número real. Una variable aleatoria es una función que asigna un valor numérico a cada uno de los posibles resultados de un evento aleatorio. Ahora, con este concepto fundamental en mente, podemos generar herramientas con grandes posibilidades de aplicación para describir y modelar el comportamiento de muchas situaciones de la realidad que tienen comportamientos regidos por el azar, con cierta estructura. Las funciones de probabilidad y de densidad son herramientas matemáticas que nos permiten modelar y evaluar la probabilidad de ocurrencia de los diferentes valores de una variable aleatoria. La función de probabilidad se utiliza para eventos discretos, mientras que la función de densidad se aplica a eventos continuos. Las aplicaciones de estos conceptos en el ámbito de la toma de decisiones son innumerables. Consideremos una empresa que desea proyectar las ventas futuras de un producto. Las ventas pueden ser tratadas como una variable aleatoria continua, y la empresa puede usar una función de densidad de probabilidad para modelar las posibles cifras de ventas, considerando diferentes escenarios económicos y de mercado. FastDelivery podría está interesada en modelar el tiempo de entrega de sus paquetes. Las entregas en tiempo real pueden ser tratadas como una variable aleatoria continua. FastDelivery puede usar una función de densidad de probabilidad para modelar el posible tiempo de entrega, considerando el tráfico, el número de entregas a realizar en un tramo específico y la eficiencia del personal de reparto. Modelos de probabilidad de variables discretas y continuas. Los modelos de probabilidad pueden ser categorizados en discretos y continuos. Entre los modelos discretos más comunes se incluyen las distribuciones binomial y de Poisson, mientras que las distribuciones normal y exponencial son ejemplos de modelos continuos. Supongamos que una empresa está tratando de predecir la cantidad de fallos en sus sistemas de producción. Usar la distribución de Poisson podría ayudar a modelar el número de fallos (un evento discreto) por unidad de tiempo. Por otro lado, para analizar el tiempo entre fallos, que sería un evento continuo, la empresa podría emplear la distribución exponencial. FastDelivery podría usar la distribución de Poisson para modelar el número de incidencias de tráfico (un evento discreto) que afecten sus rutas en un día de trabajo. Para analizar el tiempo entre entregas (un evento continuo), podría emplear la distribución exponencial. Estas herramientas estadísticas permiten a FastDelivery planificar mejor sus operaciones y mitigar posibles retrasos. Teorema central del límite. Implicaciones prácticas para el muestreo El teorema central del límite es uno de los principios más importantes en estadística, afirmando que, bajo ciertas condiciones, la suma de un gran número de variables aleatorias independientes y idénticamente distribuidas se aproxima a una distribución normal. En una encuesta de satisfacción del cliente, una empresa puede tomar una muestra grande de respuestas y utilizar el teorema central del límite para inferir la satisfacción promedio de todos sus clientes, incluso si la distribución original de las respuestas no es normal. FastDelivery puede utilizar el teorema central del límite para inferir el tiempo promedio de entrega de todos sus paquetes basado en una muestra grande de datos de entregas pasadas, incluso si las entregas individuales no siguen una distribución normal originalmente. Esto les permite hacer estimaciones más precisas y tomar decisiones operativas informadas. C O NT I NU A R Lección 2 de 7 Unidad 2. Estimación de parámetros: puntual y por intervalos Unidad 2. Estimación de parámetros: puntual y por intervalos La inferencia estadística permite realizar generalizaciones sobre una población a partir de la información proporcionada por una muestra. Este proceso es crucial en la toma de decisiones empresariales, ya que proporciona una base científica para evaluar y optimizar diferentes aspectos del negocio. La estimación es el proceso mediante el cual se calcula un valor aproximado (estadístico) que refleja una característica de una población, basándose en el análisis de una muestra. Un componente esencial en este proceso es el error de estimación, que es la diferencia entre el estadístico derivado de la muestra y el parámetro verdadero de la población. Comprender y minimizar este error es crucial para tomar decisiones más precisas y efectivas. La empresa enfrenta el desafío de optimizar las rutas de entrega para reducir los tiempos y costos operativos. Para ello, se ha recopilado una muestra de 20 observaciones de distancias (en km) recorridas en entregas recientes. Datos de la Muestra: 12.5 km, 10.2 km, 14.8 km, 9.7 km, 13.4 km, 8.9 km, 11.3 km, 15 km, 10.7 km, 12 km, 13.5 km, 9.8 km, 11.9 km, 14.2 km, 10.1 km, 13.6 km, 12.7 km, 8.5 km, 9.3 km, 14.9 km. Estimación puntual La estimación puntual consiste en simplemente calcular la medida muestral correspondiente al parámetro que se desea estimar (esta medida se denomina estadístico). En el caso de la estimación de la media poblacional, se considera la media muestral como la mejor opción para la estimación del parámetro. Figura 1: Estimación puntual, parámetros y estadísticos Fuente: http://carlosarvelo701.blogspot.com/p/estimacion-puntual.html Estimación por intervalos Para tomar decisiones informadas sobre la optimización de las rutas de entrega, es esencial estimar la distancia media recorrida en cada entrega. Utilizando la inferencia estadística, podemos calcular el intervalo de confianza para la media de la población. Este intervalo proporcionará un rango de valores en el que creemos que se encuentra la distancia media verdadera. Figura 1: Simulación de intervalos de confianza para 100 muestras aleatorias Fuente: López-Martín et al., 2019, p. 6. Los intervalos de confianza son rangos calculados a partir de los datos muestrales y se utilizan para estimar un parámetro poblacional, como la media, con un nivel de confianza específico. A continuación, se explican los diferentes intervalos de confianza para estimar la media muestral bajo distintos supuestos: 1 Intervalo de confianza para la media cuando se conoce la varianza poblacional Supuestos: La muestra se toma de una población normal o el tamaño de muestra es suficientemente grande (n > 30) para aplicar el teorema central del límite. Se conoce la varianza poblacional σ2. La fórmula para calcular los límites del intervalo es: Donde: x ̅ es la media muestral. Zα/2 es el valor crítico de la distribución normal estándar correspondiente al nivel de confianza deseado. σ es la desviación estándar poblacional. n es el tamaño de la muestra. 2 Intervalo de confianza para la media cuando no se conoce la varianza poblacional Supuestos: La muestra se toma de una población normal. No se conoce la varianza poblacional (σ2), por lo que se utiliza la varianza muestral (s2). La fórmula para calcular los límites del intervalo es: Donde: tα2,n−1 es el valor crítico de la distribución t de Student con n−1 grados de libertad correspondiente al nivel de confianza deseado. s es la desviación estándar muestral. 3 Intervalo de confianza para la media con una muestra grande (n > 30) Cuando el tamaño de la muestra es grande (n > 30), la distribución muestral de la media se aproxima a una distribución normal debido al teorema central del límite, incluso si la varianza poblacional no es conocida. En este caso, se puede usar la varianza muestral y la distribución normal estándar para calcular el intervalo de confianza. La fórmula para calcular los límites del intervalo es: Para el resto de los parámetros se pueden consultar las fórmulas correspondientes a cada conjunto de supuestos en la bibliografía. C O NT I NU A R Lección 3 de 7 Unidad 3. Concepto de prueba de hipótesis. Errores tipo I y tipo II Unidad 3. Concepto de prueba de hipótesis. Errores tipo I y tipo II Una de las herramientas más importantes para tomar decisiones es la prueba de hipótesis. Básicamente, la prueba de hipótesis es un procedimiento estadístico que permite determinar si existe evidencia suficiente para rechazar una suposición inicial (la hipótesis nula) a favor de una hipótesis alternativa. Para el caso de "FastDelivery", esto puede traducirse en pruebas para identificar si una nueva ruta de entrega es más eficiente que la actual o si la introducción de un nuevo sistema de gestión de inventario mejora los tiempos de respuesta. Errores Tipo I y Tipo II En cualquier prueba de hipótesis, se pueden cometer dos tipos de errores. El Error Tipo I ocurre cuando se rechaza una hipótesis nula que en realidad es verdadera. Por otro lado, el Error Tipo II se da cuando no se rechaza una hipótesis nula que es falsa. De acuerdo con las precisiones analizadas en el paper de estudio (López-Martín et al., 2019), se definen en mayores detalles estos principales tipos de error de las pruebas de hipótesis. El Error Tipo I: Es el error que se comete cuando se rechaza una hipótesis nula verdadera. Este error es a menudo llamado falso positivo. Por ejemplo, si una empresa prueba si una nueva campaña publicitaria es más efectiva que la anterior y concluye que sí lo es (rechazando la hipótesis nula de que no hay diferencia), pero en realidad no hay diferencia en la efectividad, se estaría cometiendo un error tipo I. La probabilidad de cometer este error se denota con α (nivel de significancia), usualmente fijado en un 5% (0.05) en investigaciones sociales y empresariales. Error Tipo II: Este tipo de error ocurre cuando se acepta una hipótesis nula falsa. Es decir, se concluye que no hay efecto cuando en realidad sí lo hay. Esto se conoce como un falso negativo. Por ejemplo, si la empresa anterior concluye que no hay diferencia significativa entre las dos campañas publicitarias (aceptando la hipótesis nula), cuando en realidad la nueva campaña es más efectiva, se estaría cometiendo un error de tipo II. La probabilidad de cometer este error se denota con β , y la potencia de la prueba estadística se define como 1-β , que es la probabilidad de detectar un efecto verdadero. Diferencias entre Estimación y Prueba de Hipótesis La estimación y la prueba de hipótesis son técnicas fundamentales de la inferencia estadística, pero sus objetivos y metodologías son distintos. El objetivo principal que persiguen es diferente: Estimación: El objetivo principal de la estimación es determinar el valor aproximado de un parámetro poblacional (como la media o la proporción) basándose en los datos muestrales. Se busca proporcionar un rango de valores (intervalo de confianza) dentro del cual es probable que se encuentre el parámetro verdadero. Prueba de Hipótesis: La prueba de hipótesis tiene como finalidad evaluar una afirmación específica sobre un parámetro poblacional. Se trata de decidir si hay suficiente evidencia en los datos muestrales para rechazar una hipótesis nula a favor de una hipótesis alternativa. Cada una de estas técnicas aplica si metodología específica: Estimación: Consiste principalmente en calcular estimadores puntuales (como la media muestral) y agregar una medida de incertidumbre (error estándar) para construir intervalos de confianza. Por ejemplo, se puede calcular un intervalo de confianza del 95% para la media poblacional. Prueba de Hipótesis: Implica formular una hipótesis nula (H₀) y una hipótesis alternativa (H₁) y usar estadísticas de prueba (como la t de Student o la Z) para evaluar la evidencia contra H₀. Se determina un valor p (p-value) y se compara con un nivel de significancia (α) para aceptar o rechazar H₀. Resultados e Interpretación: 1 Estimación: Proporciona un valor estimado del parámetro y un rango (intervalo de confianza) que refleja la incertidumbre de la estimación. El intervalo de confianza da una idea de la precisión de la estimación. 2 Prueba de Hipótesis: Da un resultado binario: se rechaza o no se rechaza la hipótesis nula, basado en la evidencia de los datos y el valor p. No proporciona un rango de valores, sino una conclusión sobre la validez de la hipótesis propuesta. Contexto de Aplicación: Estimación: Se usa cuando el interés radica en conocer el valor aproximado de un parámetro y la precisión de dicha estimación. Es útil en contextos donde se desean obtener valores concretos y rangos para planificación y análisis. Prueba de Hipótesis: Se aplica cuando hay que tomar decisiones o evaluar afirmaciones basándose en evidencia estadística. Es esencial en contextos donde se necesita validar o refutar conjeturas específicas. Aunque tienen objetivos y metodologías diferentes, la estimación y la prueba de hipótesis se complementan en el análisis estadístico. La estimación proporciona valores y rangos que permiten un entendimiento profundo de los parámetros poblacionales, mientras que la prueba de hipótesis ofrece un marco robusto para la toma de decisiones y la evaluación de afirmaciones basadas en datos. Ambas técnicas son esenciales para realizar un análisis exhaustivo y tomar decisiones informadas. C O NT I NU A R Lección 4 de 7 Unidad 4. Pruebas de hipótesis referidas a la media, la proporción, la diferencia de medias(...) Unidad 4. Pruebas de hipótesis referidas a la media, la proporción, la diferencia de medias y la diferencia de proporciones en el contexto de las decisiones empresarias Pruebas de Hipótesis Bilaterales y Unilaterales (Derecha e Izquierda) Referidas a la Media Poblacional Las pruebas de hipótesis bilaterales y unilaterales son métodos para evaluar afirmaciones sobre la media poblacional. La elección entre una prueba bilateral y una unilateral depende de la dirección de la hipótesis alternativa. Figura 2: Tipos de pruebas de hipótesis Fuente: https://slideplayer.es/slide/13935755/ Prueba Bilateral: En una prueba bilateral, la hipótesis alternativa sugiere que la media poblacional es diferente de un valor específico. Se evalúan ambas posibilidades: que la media sea mayor o menor que el valor propuesto. Hipótesis Nula (H₀): μ = μ₀ Hipótesis Alternativa (H₁): μ ≠ μ₀ Paso 1: Formular las Hipótesis H₀: μ = μ₀ (la media poblacional es igual a μ₀) H₁: μ ≠ μ₀ (la media poblacional es diferente a μ₀) Paso 2: Seleccionar el Nivel de Significancia Tradicionalmente se usa α = 0.05 Paso 3: Calcular la Estadística de Prueba Se utiliza la distribución Z (para grandes muestras, n > 30) o la distribución t de Student (para muestras pequeñas, n ≤ 30). La fórmula para la estadística de prueba es: Paso 4: Determinar el Valor Crítico y la Región de Rechazo Para una prueba bilateral con α = 0.05, los valores críticos son -1.96 y 1.96 para Z. La región de rechazo está en ambos extremos de la distribución. Paso 5: Tomar la Decisión Si la estadística de prueba cae en la región de rechazo, se rechaza H₀. Prueba Unilateral (Derecha): En una prueba unilateral derecha, la hipótesis alternativa sugiere que la media poblacional es mayor que un valor específico. Hipótesis Nula (H₀): μ ≤ μ₀ Hipótesis Alternativa (H₁): μ > μ₀ Paso 1: Formular las Hipótesis H₀: μ ≤ μ₀ (la media poblacional es menor o igual a μ₀) H₁: μ > μ₀ (la media poblacional es mayor a μ₀) Paso 2: Seleccionar el Nivel de Significancia Usualmente α = 0.05 Paso 3: Calcular la Estadística de Prueba Usamos las mismas fórmulas que en la prueba bilateral. Paso 4: Determinar el Valor Crítico y la Región de Rechazo Para una prueba unilateral derecha con α = 0.05, el valor crítico es 1.645 para Z. La región de rechazo está en el extremo derecho de la distribución. Paso 5: Tomar la Decisión Si la estadística de prueba es mayor que el valor crítico, se rechaza H₀. Prueba Unilateral (Izquierda): En una prueba unilateral izquierda, la hipótesis alternativa sugiere que la media poblacional es menor que un valor específico. Hipótesis Nula (H₀): μ ≥ μ₀ Hipótesis Alternativa (H₁): μ < μ₀ Paso 1: Formular las Hipótesis H₀: μ ≥ μ₀ (la media poblacional es mayor o igual a μ₀) H₁: μ < μ₀ (la media poblacional es menor a μ₀) Paso 2: Seleccionar el Nivel de Significancia Usualmente α = 0.05 Paso 3: Calcular la Estadística de Prueba Usamos las mismas fórmulas que en la prueba bilateral. Paso 4: Determinar el Valor Crítico y la Región de Rechazo Para una prueba unilateral izquierda con α = 0.05, el valor crítico es -1.645 para Z. La región de rechazo está en el extremo izquierdo de la distribución. Paso 5: Tomar la Decisión Si la estadística de prueba es menor que el valor crítico, se rechaza H₀. Las pruebas de hipótesis detalladas permiten evaluar afirmaciones sobre la media poblacional de diferentes maneras, dependiendo de la dirección de la hipótesis alternativa. Comprender cuándo usar una prueba bilateral o una prueba unilateral (derecha o izquierda) es esencial para realizar análisis estadísticos adecuados y tomar decisiones informadas. El texto del paper científico (López-Martín et al., 2019) ofrece una perspectiva profunda sobre los errores de interpretación comunes en la estadística inferencial. Estos errores suelen surgir cuando no se consideran adecuadamente los conceptos fundamentales y las implicaciones de los resultados estadísticos. Aquí se explican algunos de los errores más comunes: 1 Confundir Correlación con Causalidad: Uno de los errores más comunes y graves en el análisis de datos es asumir que una correlación implica causalidad. Dos variables pueden estar correlacionadas sin que una cause la otra. 2 Ignorar el Tamaño del Efecto: Es crucial no solo determinar si un efecto es estadísticamente significativo sino también considerar su tamaño. Un efecto pequeño puede ser significativo en una muestra grande, pero puede no tener relevancia práctica. 3 No Considerar el Contexto del Error Tipo I y Tipo II: La decisión sobre los niveles de significancia () y el poder de la prueba () deben considerar el contexto específico de la decisión empresarial. Un nivel demasiado bajo puede llevar a rechazar hipótesis verdaderamente útiles (alto riesgo de error tipo II), mientras que un nivel demasiado alto puede llevar a aceptar hipótesis incorrectas (alto riesgo de error tipo I). 4 Sobreinterpretar la Significancia Estadística: Incluso si un resultado es estadísticamente significativo, puede no ser robusto o reproducible en todos los contextos. Es importante considerar la replicabilidad y la robustez de los hallazgos antes de tomar decisiones empresariales basadas en ellos. 5 Uso Incorrecto de Pruebas Estadísticas: Elegir la prueba estadística adecuada es esencial. Usar una prueba paramétrica cuando los supuestos no se cumplen, o interpretar resultados sin realizar los ajustes necesarios para comparaciones múltiples puede llevar a errores de interpretación significativos. C O NT I NU A R Lección 5 de 7 Desafío C O NT I NU A R Lección 6 de 7 Videos conceptuales Lección 7 de 7 Referencias Hernández Martín, Z. (2012). Métodos de análisis de datos: apuntes. Logroño, ES: Universidad de La Rioja, Servicio de Publicaciones. Recuperado de https://dialnet.unirioja.es/servlet/libro? codigo=489791 - Cap. 1 Lind, D., Marshal, W. y Wathen, S. (2007). Estadística aplicada a los negocios y a la economía (12.a edición). México: McGraw-Hill. Paper: López-Martín, M.M., Molina-Portillo, E., Contreras, J. y Ruz, F. (2019). Análisis de los errores inferenciales en el ámbito científico. En J. M. Contreras, M. M. Gea, M. M. López-Martín y E. Molina-Portillo (Eds.), Actas del Tercer Congreso Internacional Virtual de Educación Estadística. Disponible en www.ugr.es/local/fqm126/civeest.html PAPER MODULO 2 Análisis de los errores de aplicación de la inferencia estadística.pdf 443 KB C O NT I NU A R