Podcast
Questions and Answers
El coeficiente de correlación de Pearson puede tomar valores únicamente entre 0 y 1.
El coeficiente de correlación de Pearson puede tomar valores únicamente entre 0 y 1.
False (B)
La prueba estadística T de Student se utiliza para comparar la media de dos grupos.
La prueba estadística T de Student se utiliza para comparar la media de dos grupos.
True (A)
El análisis de varianza (Anova) se aplica para comparar medias de más de dos grupos.
El análisis de varianza (Anova) se aplica para comparar medias de más de dos grupos.
True (A)
El coeficiente Phi se utiliza para variables nominales politómicas.
El coeficiente Phi se utiliza para variables nominales politómicas.
El coeficiente de determinación $R^2$ permite conocer la capacidad explicativa de la ecuación de regresión.
El coeficiente de determinación $R^2$ permite conocer la capacidad explicativa de la ecuación de regresión.
En una regresión lineal simple, la ecuación es $Y = a + bX$.
En una regresión lineal simple, la ecuación es $Y = a + bX$.
La regresión logística se usa para analizar variables dependientes en ordinales y nominales.
La regresión logística se usa para analizar variables dependientes en ordinales y nominales.
Mann-Whitney es una prueba paramétrica que compara dos medias.
Mann-Whitney es una prueba paramétrica que compara dos medias.
Un diagrama de dispersión solo puede representar la relación entre variables cualitativas.
Un diagrama de dispersión solo puede representar la relación entre variables cualitativas.
Si la nube de puntos en un diagrama de dispersión tiene pendiente positiva, la relación es inversa.
Si la nube de puntos en un diagrama de dispersión tiene pendiente positiva, la relación es inversa.
Las pruebas de dependencia analizan múltiples variables y establecen relaciones entre ellas.
Las pruebas de dependencia analizan múltiples variables y establecen relaciones entre ellas.
La potencia de contraste se refiere a la capacidad de detectar diferencias significativas entre grupos.
La potencia de contraste se refiere a la capacidad de detectar diferencias significativas entre grupos.
El peso de la variable independiente en relación a la variable dependiente se representa como la ordenada en la ecuación de regresión.
El peso de la variable independiente en relación a la variable dependiente se representa como la ordenada en la ecuación de regresión.
La regresión lineal múltiple permite predecir una variable dependiente en función de varias variables independientes.
La regresión lineal múltiple permite predecir una variable dependiente en función de varias variables independientes.
El error de predicción se representa como $Y - Y'$ en la regresión.
El error de predicción se representa como $Y - Y'$ en la regresión.
El valor de la pendiente $b$ es siempre comparable entre diferentes modelos de regresión.
El valor de la pendiente $b$ es siempre comparable entre diferentes modelos de regresión.
La cuasivarianza se calcula dividiendo entre $N-1$ para obtener un mejor estimador de la varianza poblacional.
La cuasivarianza se calcula dividiendo entre $N-1$ para obtener un mejor estimador de la varianza poblacional.
El coeficiente de variación se expresa en decimales y se utiliza para medir la variabilidad de una sola variable.
El coeficiente de variación se expresa en decimales y se utiliza para medir la variabilidad de una sola variable.
El recorrido intercuartil (IQR) se calcula como la diferencia entre el primer cuartil y el tercer cuartil.
El recorrido intercuartil (IQR) se calcula como la diferencia entre el primer cuartil y el tercer cuartil.
Una distribución normal tiene asimetría cero y su kurtosis es igual a cero.
Una distribución normal tiene asimetría cero y su kurtosis es igual a cero.
Los percentiles dividen una muestra en 100 partes, mientras que los cuartiles la dividen en 4 partes.
Los percentiles dividen una muestra en 100 partes, mientras que los cuartiles la dividen en 4 partes.
El coeficiente de correlación alcanza su valor máximo de 1 solo cuando las variables son inversamente proporcionales.
El coeficiente de correlación alcanza su valor máximo de 1 solo cuando las variables son inversamente proporcionales.
La prueba K-S se utiliza para verificar la normalidad de una distribución.
La prueba K-S se utiliza para verificar la normalidad de una distribución.
Una curva leptocúrtica tiene una curtosis mayor que cero, lo que indica una distribución más puntiaguda.
Una curva leptocúrtica tiene una curtosis mayor que cero, lo que indica una distribución más puntiaguda.
Los casos anómalos pueden influir en la media de un conjunto de datos.
Los casos anómalos pueden influir en la media de un conjunto de datos.
Los outliers se definen como datos que caen dentro del percentil 25 y 75.
Los outliers se definen como datos que caen dentro del percentil 25 y 75.
El bloxpot es un gráfico utilizado para identificar casos anómalos.
El bloxpot es un gráfico utilizado para identificar casos anómalos.
La mediana es un estadístico robusto frente a los casos anómalos.
La mediana es un estadístico robusto frente a los casos anómalos.
La covarianza es una medida estandarizada de la relación entre dos variables cuantitativas.
La covarianza es una medida estandarizada de la relación entre dos variables cuantitativas.
Un puntaje de 291 puede considerarse un outlier si P75 es 250.
Un puntaje de 291 puede considerarse un outlier si P75 es 250.
Los brazos cortos y la caja grande en un bloxpot indican una distribución platicúrtica.
Los brazos cortos y la caja grande en un bloxpot indican una distribución platicúrtica.
Para una puntuación de 346, se considera un outlier si es mayor que 430.
Para una puntuación de 346, se considera un outlier si es mayor que 430.
El IQR se calcula restando el percentil 25 del percentil 75.
El IQR se calcula restando el percentil 25 del percentil 75.
Un extreme se define como un dato que se encuentra a más de ±1.5 IQR.
Un extreme se define como un dato que se encuentra a más de ±1.5 IQR.
Si la mediana está por debajo del centro, indica asimetría negativa.
Si la mediana está por debajo del centro, indica asimetría negativa.
La prueba de Lilliefors se utiliza para comprobar el supuesto de homogeneidad.
La prueba de Lilliefors se utiliza para comprobar el supuesto de homogeneidad.
Una puntuación menor que 80 puede considerarse un extremo si el IQR es 80.
Una puntuación menor que 80 puede considerarse un extremo si el IQR es 80.
Transformar una variable es una solución cuando no sigue una distribución normal.
Transformar una variable es una solución cuando no sigue una distribución normal.
La correlación tiene un rango de entre -1 y 0.
La correlación tiene un rango de entre -1 y 0.
Para muestras de menos de 30 sujetos, se aplica la corrección de Kolmogorov-Smirnov.
Para muestras de menos de 30 sujetos, se aplica la corrección de Kolmogorov-Smirnov.
La falta de respuestas en una muestra puede ser comprobada utilizando el método T de Student.
La falta de respuestas en una muestra puede ser comprobada utilizando el método T de Student.
Para equilibrar una muestra, se debe multiplicar las variables con menos representación por un valor inferior a 1.
Para equilibrar una muestra, se debe multiplicar las variables con menos representación por un valor inferior a 1.
La media de los puntos adyacentes es uno de los métodos propuestos para imputar datos faltantes.
La media de los puntos adyacentes es uno de los métodos propuestos para imputar datos faltantes.
Completar el trabajo de campo es la única solución a los problemas de datos faltantes.
Completar el trabajo de campo es la única solución a los problemas de datos faltantes.
El coeficiente de ponderación se calcula dividiendo el tamaño de la muestra teórica entre la muestra real.
El coeficiente de ponderación se calcula dividiendo el tamaño de la muestra teórica entre la muestra real.
Los datos que faltan no deben ser tratados usando la media de las subclases si los grupos son muy heterogéneos.
Los datos que faltan no deben ser tratados usando la media de las subclases si los grupos son muy heterogéneos.
Para analizar si la falta de datos corresponde con alguna variable sociodemográfica, se debe comprobar la aleatoriedad de los datos.
Para analizar si la falta de datos corresponde con alguna variable sociodemográfica, se debe comprobar la aleatoriedad de los datos.
El método de Interpolación lineal es considerado el mejor método de imputación de datos faltantes.
El método de Interpolación lineal es considerado el mejor método de imputación de datos faltantes.
Flashcards
Desviación típica
Desviación típica
La desviación típica (σ) es una medida de dispersión que indica la variabilidad de los datos alrededor de la media. Se calcula como la raíz cuadrada de la varianza.
Cuasivarianza
Cuasivarianza
La cuasivarianza es una medida similar a la varianza, pero en lugar de dividir por el número total de datos (N), se divide por N-1. Esto la hace un mejor estimador de la varianza poblacional cuando se trabaja con muestras pequeñas.
Amplitud o Rango
Amplitud o Rango
La amplitud o rango es una medida de variabilidad que se calcula como la diferencia entre el valor máximo y el valor mínimo de un conjunto de datos.
Coeficiente de variación
Coeficiente de variación
Signup and view all the flashcards
Recorrido Intercuartil (IQR)
Recorrido Intercuartil (IQR)
Signup and view all the flashcards
Asimetría / Simetría
Asimetría / Simetría
Signup and view all the flashcards
Curtosis
Curtosis
Signup and view all the flashcards
Correlación de Pearson
Correlación de Pearson
Signup and view all the flashcards
Correlación de Spearman
Correlación de Spearman
Signup and view all the flashcards
Prueba T de Student
Prueba T de Student
Signup and view all the flashcards
Análisis de Varianza (ANOVA)
Análisis de Varianza (ANOVA)
Signup and view all the flashcards
Prueba Chi Cuadrado
Prueba Chi Cuadrado
Signup and view all the flashcards
Pruebas Multivariadas de Dependencia
Pruebas Multivariadas de Dependencia
Signup and view all the flashcards
Regresión Lineal
Regresión Lineal
Signup and view all the flashcards
Pruebas Multivariadas de Interdependencia
Pruebas Multivariadas de Interdependencia
Signup and view all the flashcards
Datos "missing" o perdidos
Datos "missing" o perdidos
Signup and view all the flashcards
Comprobar la aleatoriedad de la pérdida de datos
Comprobar la aleatoriedad de la pérdida de datos
Signup and view all the flashcards
Relación entre la pérdida de datos y características demográficas
Relación entre la pérdida de datos y características demográficas
Signup and view all the flashcards
Comparar las respuestas de los participantes y no participantes
Comparar las respuestas de los participantes y no participantes
Signup and view all the flashcards
Eliminar los casos incompletos
Eliminar los casos incompletos
Signup and view all the flashcards
Sustituir los datos "missing" con un valor único
Sustituir los datos "missing" con un valor único
Signup and view all the flashcards
Imputación de datos "missing"
Imputación de datos "missing"
Signup and view all the flashcards
Método "Hot Deck"
Método "Hot Deck"
Signup and view all the flashcards
Casos Anómalos
Casos Anómalos
Signup and view all the flashcards
Outliers
Outliers
Signup and view all the flashcards
Extremos
Extremos
Signup and view all the flashcards
Rango Intercuartil (IQR)
Rango Intercuartil (IQR)
Signup and view all the flashcards
Boxplot
Boxplot
Signup and view all the flashcards
Mediana
Mediana
Signup and view all the flashcards
Simetría
Simetría
Signup and view all the flashcards
IQR: ¿Qué mide?
IQR: ¿Qué mide?
Signup and view all the flashcards
Extremo: ¿Cómo se identifica?
Extremo: ¿Cómo se identifica?
Signup and view all the flashcards
Outlier: ¿Cómo se identifica?
Outlier: ¿Cómo se identifica?
Signup and view all the flashcards
Prueba de Lilliefors: ¿Para qué sirve?
Prueba de Lilliefors: ¿Para qué sirve?
Signup and view all the flashcards
Prueba de Shapiro Wilk: ¿Cuándo se utiliza?
Prueba de Shapiro Wilk: ¿Cuándo se utiliza?
Signup and view all the flashcards
Covarianza: ¿Qué mide?
Covarianza: ¿Qué mide?
Signup and view all the flashcards
Correlación: ¿Qué mide?
Correlación: ¿Qué mide?
Signup and view all the flashcards
Pruebas paramétricas vs. no paramétricas: ¿Cuál es la diferencia principal?
Pruebas paramétricas vs. no paramétricas: ¿Cuál es la diferencia principal?
Signup and view all the flashcards
Coeficiente de correlación de Pearson (rxy)
Coeficiente de correlación de Pearson (rxy)
Signup and view all the flashcards
Diagrama de dispersión
Diagrama de dispersión
Signup and view all the flashcards
Regresión lineal simple
Regresión lineal simple
Signup and view all the flashcards
Regresión lineal múltiple
Regresión lineal múltiple
Signup and view all the flashcards
Ordenada en el origen (a)
Ordenada en el origen (a)
Signup and view all the flashcards
Pendiente (b)
Pendiente (b)
Signup and view all the flashcards
Coeficiente de determinación (R2)
Coeficiente de determinación (R2)
Signup and view all the flashcards
Study Notes
Introducción al Proceso de Datos
- El proceso de datos incluye el análisis de datos, comenzando con el diseño y recolección de datos, seguido de la revisión, codificación y grabación de los mismos en un programa estadístico (como SPSS).
- Después de la grabación, se realiza un análisis exploratorio de datos (EDA) antes de un análisis estadístico formal.
- El análisis de datos culmina con la interpretación de los resultados y la elaboración de un informe.
Estadística
- La estadística es una herramienta matemática para analizar datos.
- Existen diferentes tipos de pruebas estadísticas:
- Univariadas: analizan una sola variable.
- Bivariadas: analizan la relación entre dos variables.
- Multivariadas: analizan la relación entre más de dos variables.
Pruebas Univariadas
- Medidas de tendencia central:
- Media aritmética
- Media recortada (descarta un porcentaje de los valores más altos y bajos)
- Media geométrica (la raíz n-ésima del producto de los valores)
- Mediana (el valor intermedio, el percentil 50)
- Moda (el valor más frecuente)
- Medidas de variabilidad/dispersión:
- Varianza (la dispersión media de los datos respecto a la media)
- Desviación típica (la raíz cuadrada de la varianza)
- Cuasivarianza (un estimador más preciso para muestras pequeñas)
- Rango (diferencia entre el valor máximo y mínimo)
- Recorrido intercuartílico (IQR) (diferencia entre el tercer y primer cuartil)
Pruebas Bivariadas
- Correlaciones: miden la relación entre dos variables. Un coeficiente de correlación alto indica una fuerte relación (positiva o negativa).
- Correlación de Pearson (para variables de razón o intervalo)
- Correlación de Spearman (para variables ordinales o datos que no siguen una distribución normal)
Pruebas Multivariadas
- Dependencia: analizan la relación entre variables, identificando variables independientes y dependientes.
- Regresión lineal (para predecir una variable a partir de otra)
- Regresión logística (para predecir una variable categórica a partir de otra)
- Análisis de varianza múltiple (ANOVA) (para comparar más de dos grupos)
- Análisis discriminante (clasifica objetos en grupos)
- Análisis de correspondencias (para relaciones entre variables categóricas)
- Interdependencia: analizan la relación entre las variables sin definir una variable dependiente o independiente.
- Análisis de conglomerados (agrupa objetos similares)
- Análisis factorial (reduce el número de variables interrelacionadas)
Depuración de Datos
- Errores: errores de grabación, valores fuera de rango o inconsistencias
- Casos faltantes (missing): datos que faltan en la base de datos, estos casos se deben tratar con cautela dado que pueden afectar la representatividad de la muestra.
- Razones de datos faltantes: temas delicados, confidencialidad, razones de contexto, falta de motivación o tiempo.
- Tratamiento: eliminar casos faltantes, imputación (reemplazar los datos faltantes con estimaciones), ponderación
Soluciones/Métodos
- Casos completos: usar solo los casos sin datos faltantes.
- Ponderación: ajustar la representatividad de los grupos en la muestra.
- Métodos de sustitución: utilizar los datos de casos similares para rellenar los valores faltantes.
- Imputación: métodos para estimar los datos faltantes.
Normalidad
- Normalidad: la distribución de los datos es una distribución normal.
- Prueba de normalidad: pruebas estadísticas (como Shapiro-Wilk y Kolmogorov-Smirnov) que se aplican para verificar si los datos se distribuyen normalmente.
- Alternativas: si los datos no cumplen con la normalidad, se pueden utilizar pruebas no paramétricas.
Diagrama de Dispersión
- Representa graficamente la relación entre dos variables cuantitativas.
- Permite visualizar la tendencia general entre las variables.
- La dirección y densidad de los puntos describen la correlación y fuerza de la relación
Regresión Lineal
- Modelo que describe la relación entre dos variables cuantitativas
- Permite predecir el valor de una variable a partir del valor de la otra.
- Es una técnica usada para encontrar la mejor recta que describe los puntos
Studying That Suits You
Use AI to generate personalized quizzes and flashcards to suit your learning preferences.
Related Documents
Description
Este cuestionario explora el proceso de datos y fundamentos de estadística. Se abordan técnicas de análisis de datos, pruebas univariadas y medidas de tendencia central. Ideal para estudiantes que deseen entender cómo manejar y analizar datos estadísticos.