Inferência Paramétrica - ISCTE-IUL (PDF)
Document Details
Instituto Universitário de Lisboa (ISCTE-IUL)
Graça Trindade, Raul Laureano
Tags
Summary
Este documento aborda a análise de dados inferencial paramétrica, focando em testes paramétricos, estimação de parâmetros e ensaios de hipóteses. São apresentados conceitos teóricos e exemplos de aplicação, incluindo a estimação por intervalos e testes para a igualdade de médias.
Full Transcript
ANÁLISE DE DADOS INFERENCIAL: TESTES PARAMÉTRICOS Instituto Universitário de Lisboa Licenciaturas em IGE (ISCTE-IUL) Análise inferencial ÍNDICE 1. OBJETIVOS DA ANÁLIS...
ANÁLISE DE DADOS INFERENCIAL: TESTES PARAMÉTRICOS Instituto Universitário de Lisboa Licenciaturas em IGE (ISCTE-IUL) Análise inferencial ÍNDICE 1. OBJETIVOS DA ANÁLISE DE DADOS INFERENCIAL PARAMÉTRICA 1 2. ESTIMAÇÃO DE PARÂMETROS 1 Estimação pontual (Revisões) 1 Estimação por intervalos (Revisões) 1 3. ENSAIOS DE HIPÓTESES 3 Formulação de hipóteses 3 Erros inerentes ao processo de tomada de decisão 5 Cálculo da probabilidade de erro tipo II 7 Função beta e função potência 9 Tomada de decisão 10 4. TESTES PARAMÉTRICOS 13 Teste para uma média 13 Testes t para a igualdade de duas médias 18 Com amostras independentes 18 Com amostras emparelhadas 21 Teste para a igualdade de mais de duas médias 27 Pressupostos 27 Hipóteses 28 Estatística do teste 28 Testes de comparações múltiplas a posteriori 30 Análise inferencial ÍNDICE DE FIGURAS Figura 1: Regiões crítica e de aceitação num ensaio de hipóteses bilateral 5 Figura 2 – Relação entre as probabilidades dos erros tipos I e II 8 Figura 3: Representação gráfica da função beta 10 Figura 4 - Representação gráfica da função potência 10 Figura 5: Decisão a tomar com base no valor do p-value 11 Figura 6: Normal Q-Q plots do Número diários lidos por semana (minutos) 15 Figura 7: Detrended normal Q-Q plots do Número diários lidos por semana (minutos) 15 Figura 8: Tempos médios de leitura por semanário preferido 34 Figura 9: Tempos médios de leitura por grupos de “Quando lê o semanário preferido, costuma...?” 42 ÍNDICE DE TABELAS Tabela 1: Amplitude e variação máxima do erro para dieferntes valorse de confiança 2 Tabela 2: Principais diferenças entre testes paramétricos e não paramétricos 3 Tabela 3: Definição das hipóteses nula e alternativa num ensaio de hipóteses 4 Tabela 4: Relação entre os erros tipo I e II 8 Tabela 5: Relação entre os erros tipo I e II para diferentes valores de 9 Tabela 6: Cálculo da função beta 9 Tabela 7: Registo dos tempos de leitura dos semanários Regional e Sol lidos por mês 25 Tabela 8: Fontes da variação pela decomposição da variância total 29 Tabela 9: Fontes de variação dos tempos de leitura dos semanários, em minutos 32 1. OBJETIVOS DA ANÁLISE DE DADOS INFERENCIAL PARAMÉTRICA Objectivos: Estimação de parâmetros desconhecidos de uma certa população com base numa amostra aleatória a partir de estimadores que gozem de boas propriedades; Testar hipóteses que se estabeleçam a priori 2. ESTIMAÇÃO DE PARÂMETROS Estimação pontual (Revisões) O objectivo da estimação pontual é usar toda a informação disponível a partir da amostra aleatória para propor um valor que é o melhor valor que se pode adiantar para um certo parâmetro do universo. Existem para isso dois procedimentos: propor um estimador que pareça “bom” por gozar de propriedades “desejáveis” num estimador, nomeadamente, para pequenas amostras, o não enviesamento e a eficiência, e para grandes amostras, a consistência em média quadrática e a eficiência assimptótica. construir um estimador que assegure que ele goza das propriedades “desejáveis”, por exemplo, a partir da maximização da funçaõ de verosimilhança. Estimação por intervalos (Revisões) Na estimação por intervalos, em vez de se indicar um determinado valor estimado para certo parâmetro da população, constrói-se um intervalo que, com certo grau de certeza, previamente fixado, o contenha, a partir do método da variável fulcral. Método da variável fulcral A escolha da estatística adequada para estimar o parâmetro deve ser tal que contenha o próprio parâmetro na sua expressão; não contenha na sua expressão quaisquer outros parâmetros desconhecidos; a sua distribuição não depende do parâmetro a estimar. Exemplo 1: Seja X o salário (em u.m.) de um trabalhador numa região cuja distribuição se considere normal com média desconhecida e dispersão 10000 u.m.2. Assuma que se obteve, em 100 dias aleatoriamente escolhidos, um montante de salários médio de 22000 u.m.. Obtenha uma estimativa por intervalos, a 95%, para o verdadeiro valor do salário médio dos trabalhadores dessa região. ©ISCTE-Instituto Universitário de Lisboa 1 GraçaTrindade Raul Laureano Análise inferencial 1- Escolha da variável fulcral e sua distribuição A escolha da estatística adequada para estimar o parâmetro deve ser tal que contenha o próprio parâmetro na sua expressão. 𝑋−𝜇 𝜎 ∩ 𝑁(0; 1) √𝑛 2- Escolha do nível de confiança Por exemplo, se = 0,95, a probabilidade do parâmetro estar contido no IC é de 0,95. 3- Construção do intervalo aleatório: 𝑃 −𝑧 ≤ ≤ +𝑧 = 0,95 𝑃 𝑋 − 1,96 ≤ 𝜇 ≤ 𝑋 + 1,96 = 0,95 √ √ √ 𝜎 𝜎 𝐼 , = 𝑋 − 1,96 ; 𝑋 + 1,96 √𝑛 √𝑛 Interpretação: em infinitas amostras aleatórias da mesma dimensão que conduzem a infinitos intervalos de confiança, 95% deles vão conter o verdadeiro valor de µ; os restantes 5% não o vão conter. 4- Determinação dos limites concretos do IC Estimativa do erro padrão ∗ 100 100 𝐼 , = 22000 − 1,96 ; 22000 + 1,96 = ]21980,4; 22019,6[ √100 √100 Variação máxima do erro ou margem de erro Interpretação: Estima-se que, com 95% de confiança, o verdadeiro valor médio dos salários se situe entre 21980,4 um e 22019,6 um porque é assim na maioria das vezes. Tabela 1: Amplitude e variação máxima do erro para dieferntes valores de confiança Valor crítico Amplitude do Variação IC para z / intervalo máxima 90% 1,645 ]21983,6; 22016,4[ 32,9 16,45 95% 1,960 ]21980,4; 22019,6[ 39,2 19,60 99% 2,576 ]21974,2; 22025,8[ 51,52 25,76 Interpretação: À medida que o grau de confiança aumenta (), a amplitude do intervalo também aumenta aumenta e a precisão diminui. Perguntas de reflexão: i) quais as vantagens de estimar um intervalo com 99% de confiança, quando comparado com um intervalo a 90% de confiança? ii) Se com o aumento da dimensão da amostra se obtêm intervalos de confiança com maior precisão, porque não se analisam sempre grandes amostras? iii) Porque é que a variabilidade da população afeta a precisão das estimativas? ©ISCTE-Instituto Universitário de Lisboa 2 Graça Trindade Raul Laureano Análise inferencial 3. Ensaios de hipóteses Antes da realização de testes paramétricos ou não paramétricos, há que saber como se procede a um ensaio de hipóteses e compreender que, em qualquer processo de tomada de decisão, há erros que lhe estão associados. Os testes paramétricos são mais robustos que os não paramétricos, i.e., a potência de teste (probabilidade de decidir corretamente) é superior à dos não paramétricos. Os testes paramétricos permitem validar afirmações sobre os parâmetros de uma população. Por exemplo: Será que o preço médio diário de vendas de um produto é de 150 euros? Será que diferenças observadas entre estatísticas em dois ou mais grupos correspondem ou não a diferenças “reais” nos parâmetros em causa? As principais diferenças entre os dois tipos de testes são apresentadas na Tabela 2. Tabela 2: Principais diferenças entre testes paramétricos e não paramétricos Testes paramétricos Testes não paramétricos Testam parâmetros Testam distribuições Utilizam-se quando a variável Aplicam-se a todo o tipo de dependente (em estudo) é quantitativa variáveis (mas p.ara variáveis Obedecem a um conjunto de quantitativas, os dados são pressupostos para se validar os seus ordenados de acordo com o critério resultados. ascendente de valores, e neste caso Exemplo: Amostras independentes, passam a dados ordinais) normalidade das variáveis Não necessitam de pressupostos (ou quantitativas pelo menos de tantos pressupostos já que alguns podem exigir o pressuposto de as amostras terem de ser independentes ou emparelhadas) para se validar os seus resultados. Formulação de hipóteses Uma correcta formulação das hipóteses a testar é determinante para a realização de um ensaio de hipóteses. Hipótese nula: H0: uma hipótese, dita hipótese nula, H0, que tem de conter a igualdade, podendo ser ≥, ≤ ou =; Hipótese alternativa: H1 ou Ha: uma hipótese, dita hipótese alternativa, Ha, que contradiz a anterior, podendo ser ou ≠; Sabe-se que apenas umas das hipóteses é verdadeira, mas não se sabe qual, e tem-se como verdadeira a hipótese nula (na igualdade) até evidência em contrário, i.e., ao realizar um ensaio de hipóteses procura-se encontrar evidências que contrariem a hipótese nula (até prova em contrário H0 é verdadeira). Assim, com base nos dados recolhidos toma-se uma de duas decisões: ©ISCTE-Instituto Universitário de Lisboa 3 Graça Trindade Raul Laureano Análise inferencial Rejeitar H0 : Os dados são contraditórios com a afirmação colocada na hipótese nula e levam a sua rejeição; Não rejeitar H0 : Os dados não são contraditórios com a afirmação colocada na hipótese nula e não permitem a sua rejeição. A Tabela 3 resume as várias alternativas possíveis num ensaio de hipóteses para uma média. Tabela 3: Definição das hipóteses nula e alternativa num ensaio de hipóteses Hipótese nula Hipótese Região Crítica/Região de aceitação H0 alternativa HA 𝝁=𝒂 𝝁≠𝒂 Teste bilateral – a questão coloca-se quando não há informação dos possíveis valores para a face ao valor considerado em H0 (tanto pode ser 𝝁 > 𝒂 como 𝝁 < 𝒂). Região crítica – a área crítica é dividida de forma igual pelas abas da distribuição do teste. 𝝁 = 𝒂 (𝝁 ≤ 𝒂) 𝝁>𝒂 Teste unilateral direito – a questão é colocada em termos da direção de alteração face ao valor considerado em H0. Região crítica – determinado o ponto crítico, a região crítica é a área à direita desse ponto crítico. A área da região crítica corresponde ao valor do nível de significância. 𝝁 = 𝒂 (𝝁 ≥ 𝒂) 𝝁 a RCUD Região crítica bilateral Região crítica unilateral à esquerda Região crítica unilateral à direita A representação gráfica das regiões crítica (em que se rejeita H0) e de aceitação (em que não se rejeita H0), definido o erro máximo que o decisor está disposto a cometer (probabilidade α), é, para o caso de a região crítica ser bilateral: ©ISCTE-Instituto Universitário de Lisboa 4 Graça Trindade Raul Laureano Análise inferencial Figura 1: Regiões crítica e de aceitação num ensaio de hipóteses bilateral Note-se que a estatística de teste (ou valor do teste) mede o afastamento entre o observado na amostra e o que se afirma que acontece na população (na igualdade). Assim, quando esse afastamento é pequeno, está-se na região de aceitação (RA) e quando esse afastamento é grande cai-se na região crítica (RC). Importa, pois, definir o critério para considerar o afastamento pequeno (próximo de 0 na Figura 1) ou grande. Esse critério tem em conta a distribuição da estatística de teste as distribuições amostrais (sendo as mais frequentes a Normal Padrão, a t de Student, a F de Snedecor e a Qui Quadrado), em que se obtém o valor crítico, isto é, o valor a partir do qual se considera o afastamento grande, quer para a esquerda, quer para a direita, num teste bilateral. Erros inerentes ao processo de tomada de decisão Para melhor ilustrar os erros associados a um ensaio de hipóteses considere-se o exemplo do julgamento de uma pessoa (um réu) que cometeu ou não um delito e que vai a julgamento por se acreditar que ele cometeu esse delito. Por princípio básico, o réu é considerado inocente até prova em contrário e o juiz, face às provas que lhe são apresentadas, toma a sua decisão tendo como hipóteses em julgamento: H0: O réu não é culpado (é inocente) Ha: O réu é culpado. Assim, no julgamento de um réu, têm-se as seguintes possibilidades com base nas evidências apresentadas: SITUAÇÃO REAL DECISÃO BASEADA NAS H0 é Verdadeira H0 é Falsa PROVAS (o réu é de facto inocente) (o réu é de facto culpado) Não rejeitar H0 Decisão incorrecta (o réu é considerado Decisão correcta inocente) Erro Tipo II Rejeitar H0 Decisão incorrecta (o réu é considerado Decisão correcta culpado) Erro Tipo I ©ISCTE-Instituto Universitário de Lisboa 5 Graça Trindade Raul Laureano Análise inferencial Existem, pois, dois erros que se podem estar a cometer: O ERRO TIPO I ocorre quando o juiz toma uma decisão incorrecta ao considerar o réu culpado quando ele é na verdade inocente. ERRO TIPO I = Rejeitar H0 quando H0 é verdadeira, ou seja, (𝑅𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻 |𝐻 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑖𝑟𝑎) A probabilidade máxima de ocorrência do erro tipo I é fixada a priori pois é mais gravoso socialmente condenar um inocente: 𝑃[𝑅𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻0 |𝐻0 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑖𝑟𝑎] = e chama-se nível de significância. O ERRO TIPO II ocorre quando o juiz toma uma decisão incorrecta ao considerar o réu como inocente quando ele é na verdade culpado. ERRO TIPO II = Não rejeitar H0 quando H0 é falsa, ou seja, (𝑁ã𝑜 𝑟𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻 |𝐻 𝑓𝑎𝑙𝑠𝑎) Ambos os tipos de erros fazem parte do mesmo ensaio de hipóteses e, por isso, não são independentes e variam inversamente, i. e., quando um aumenta, o outro diminuiu. Conclui-se que, em qualquer decisão a tomar, se incorre num determinado erro. Estes erros variam inversamente e o objectivo é serem minimizados em simultâneo (o que só é possível com o aumento do número de provas). Por outro lado, existem também duas decisões corretas: i) não rejeitar a inocência do réu quando, de facto, ele não cometeu o delito; e ii) rejeitar a inocência do réu quando, de facto, ele cometeu o delito. A esta última decisão correta está a associada uma probabilidade, designada por potência do teste. A POTÊNCIA DO TESTE é definida como a probabilidade de se rejeitar H0 quando esta é falsa e, portanto, é calculada para um dado valor de 𝜇. É desejável que, para cada valor alternativo de , a função potência tenha um valor elevado uma vez que é de todo o interesse que seja grande a probabilidade de se rejeitar uma hipótese falsa. Em suma, num ensaio de hipóteses há a salientar 3 probabilidades: = 𝛼 para uma RCBilateral 𝑃[𝐸𝑟𝑟𝑜 𝑡𝑖𝑝𝑜 𝐼] = 𝑃 [𝑅𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻 | 𝐻 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑖𝑟𝑎] = 𝛼 A ≤ 𝛼 para 𝑢𝑚𝑎 𝑅𝐶𝑈𝑛𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙 Esta probabilidade é designada por nível de significância e assume habitualmente os valores 0,10; 0,05 ou 0,01 𝑃[𝐸𝑟𝑟𝑜 𝑡𝑖𝑝𝑜 𝐼𝐼] = 𝑃 [𝑁ã𝑜 𝑅𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻 | 𝐻 𝑓𝑎𝑙𝑠𝑎] = 𝛽 𝑃𝑜𝑡ê𝑛𝑐𝑖𝑎 = 𝑃 [𝑅𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻 | 𝐻 𝑓𝑎𝑙𝑠𝑎] = 𝜋 = 1 − 𝛽 ©ISCTE-Instituto Universitário de Lisboa 6 Graça Trindade Raul Laureano Análise inferencial Cálculo da probabilidade de erro tipo II Para o cálculo da probabilidade do erro tipo II, considere-se o seguinte exemplo: Exemplo 2: Pretende-se testar se o o salário médio praticado numa organização é inferior ao salário mínimo em vigor no país que é de 500 u.m. O salário segue distribuição normal com = 81. Para o efeito decidiu-se recorrer a uma amostra de colaboradores da organização de dimensão 9 e o salário médio de 450 u.m. A decisão deverá ser tomada considerando um nível de significância de 0,05 (𝛼 = 0,05). X: salário de um colaborador de uma organização 𝑋 ∩̇ 𝑁(𝜇; 𝜎 = 81) 𝐻𝑜: 𝜇 = 500 𝐻𝑎: 𝜇 < 500 RCUE Estatística do teste: ∩̇ 𝑁(0; 1) √ ERROS ASSOCIADOS À TOMADA DE DECISÃO: 1. Erro tipo I A probabilidade do erro tipo I é a probabilidade da estatística do teste gerar valores abaixo de um certo limiar crítico, quando a sua distribuição é a fixada em H0. 𝛼 = 𝑃[𝑅𝑒𝑗. 𝐻𝑜|𝐻𝑜 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑖𝑟𝑜] = 𝑃[𝑇 ∈ 𝑅𝐶|𝜇 = 𝜇 ] ≤ 0,05 𝑋−𝜇 𝑃[𝑒𝑟𝑟𝑜 𝑡𝑖𝑝𝑜 𝐼] = 𝑃 𝜎 ≤𝑧 √𝑛 Conhecido 𝜶, o ponto crítico, z, fica conhecido. 𝑋−𝜇 𝑃[𝑒𝑟𝑟𝑜 𝑡𝑖𝑝𝑜 𝐼] = 𝑃 𝜎 ≤ 𝑧 = 𝛼 → 𝑧 = −1,645 √𝑛 Assim, se o valor da estatística de teste for superior a (– 1,645), não rejeitamos a H0; se obtivermos um valor da estatística de teste ≤– 1,645, rejeitamos H0. Assim, as regiões crítica e de aceitação em relação ao valor do teste são 𝑅𝐶 = ] − ∞; – 1,645] (região crítica) 𝑅𝐴 = ]– 1,645 ; +∞[ (região de aceitação) Em relação à média amostral, para que valores da média amostral se rejeita H0? Precisamos de determinar o 𝑋 (crítico ou teórico). Rejeita-se H0 quando o valor do teste de ensaio for ≤ −1,645 ©ISCTE-Instituto Universitário de Lisboa 7 Graça Trindade Raul Laureano Análise inferencial ⁄√ ≤ −1,645 𝑋 − 500 ≤ −1,645 × 27 𝑋 ≤ 500 − 44,415 ↔ 𝑋 ≤ 455,585 𝑅𝐶 = ] − ∞; 455,585] (região crítica) 𝑅𝐴 ]455,585 ; +∞[ (região de aceitação) 2. Erro tipo II para 𝝁𝑨 = 𝟒𝟑𝟎 𝛽 = 𝑃[𝑁ã𝑜 𝑅𝑒𝑗. 𝐻𝑜|𝐻𝑜 𝑓𝑎𝑙𝑠𝑜] = 𝑃[𝑇 ∈ 𝑅𝐴|𝜇 = 𝜇 ] = 𝑃[𝑇 > −1,645|𝜇 = 𝜇 ] =𝑃 > −1,645|𝜇 = 430 = 𝑃 𝑋 > 𝜇 − 1,645 |𝜇 = 430 √ √ 455,585 − 430 = 𝑃[𝑋 > 455,585|𝜇 = 430] = 𝑃 𝑍 > ≈ 𝑃[𝑍 > 0,95] ≈ 1 − 𝑃[𝑍 ≤ 0,95] 81 √9 = 1 − 0,8289 ≈ 0,1711 Figura 2 – Relação entre as probabilidades dos erros tipos I e II CASO 1: os erros variam inversamente Verificámos anteriormente que, se 𝛼 = 0,05, 𝛽(𝜇 = 430) ≈ 0,1711. Mas, se 𝛼 = 0,01, qual será o valor para 𝛽? Se 𝛼 = 0,01 𝑃[𝑍 ≤ −𝑧] = 0,99 𝑧 = −2,326, 𝛽 = 𝑃[𝑇 > −2,326|𝜇 = 𝜇 ] = 𝑃 > −2,326|𝜇 = 430 = 𝑃[𝑋 > 𝜇 − 2,326|𝜇 = 430] √ 𝑋 − 500 = −2,326 𝑋 = 437,198 81 √9 437,198 − 430 = 𝑃[𝑋 > 437,198|𝜇 = 430] = 𝑃 𝑍 > ≈ 𝑃[𝑍 > 0,27] = 1 − 𝑃[𝑍 ≤ 0,27] 81 √9 = 1 − 0,6064 ≈ 0,3936 Tabela 4: Relação entre os erros tipo I e II 𝑃[𝑒𝑟𝑟𝑜 𝑡𝑖𝑝𝑜 1] 𝑃[𝑒𝑟𝑟𝑜 𝑡𝑖𝑝𝑜 2] 𝑛=9 𝛼 = 0,05 0,1711 𝛼 = 0,01 0,3936 Interpretação: se 𝛼 , o valor de 𝛽 , ou seja, os erros variam inversamente. ©ISCTE-Instituto Universitário de Lisboa 8 Graça Trindade Raul Laureano Análise inferencial CASO 2: aumento da dimensão amostral E se a dimensão amostral aumentar por se dispor de mais informação, o que sucede à relação entre os erros tipos I e II? Suponha que 𝑛 = 16 e que a média amostral não se altera. Então, para = 0,05: 𝛽 = 𝑃[𝑁ã𝑜 𝑅𝑒𝑗. 𝐻𝑜|𝐻𝑜 𝑓𝑎𝑙𝑠𝑜] = 𝑃[𝑇 ∈ 𝑅𝐴|𝜇 = 𝜇 ] = 𝑃[𝑇 > −1,645|𝜇 = 𝜇 ] = 𝑃 > −1,645|𝜇 = 430 = 𝑃 𝑋 > 𝜇 − 1,645 |𝜇 = 430 √ √ 𝑋 − 500 = −1,645 𝑋 ≈ 466,689 81 √16 466,689 − 430 ≈ 𝑃[𝑋 > 466,689|𝜇 = 430] = 𝑃 𝑍 > ≈ [𝑍 > 1,81] = 1 − 𝑃[𝑍 ≤ 1,81] 81 √16 ≈ 1 − 0,9649 ≈ 0,0351 Tabela 5: Relação entre os erros tipo I e II para diferentes valores de 𝑃[𝑒𝑟𝑟𝑜 𝑡𝑖𝑝𝑜 𝐼] 𝑃[𝑒𝑟𝑟𝑜 𝑡𝑖𝑝𝑜 𝐼𝐼] 𝑛=9 𝛼 = 0,05 0,1711 𝛼 = 0,01 0,3936 𝑛 = 16 𝛼 = 0,05 0,0351 Interpretação: para o mesmo valor de 𝛼 , se n , o valor de 𝛽 . Mais informação conduz a resultados mais precisos e diminui a probabilidade de se cometer um erro tipo II. Função beta e função potência Para o cálculo da função beta, considerem-se alguns valores de alternativos a H0 os seguintes valores: 480, 450, 430, 400. A função beta para estes valores de alternativos está representada na seguinte tabela: Tabela 6: Cálculo da função beta 𝜇 480 450 430 400 𝛽 0,0197 0,1711 0,5910 0,8461 Veja-se a representação gráfica da função beta para uma região crítica à esquerda e para uma região bilateral (Figura 3). ©ISCTE-Instituto Universitário de Lisboa 9 Graça Trindade Raul Laureano Análise inferencial RCUE RCBILATERAL Figura 3: Representação gráfica da função beta A função potência, 𝜋(𝜇), é definida como a probabilidade de se rejeitar H0 para um dado valor de . Para valores alternativos de 𝜇 (𝜇 ), a função potência é complementar da função beta. 𝛼 𝜇=𝜇 𝜋(𝜇) = 𝑃[𝑅𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻𝑜|𝜇] = 1 − 𝛽(𝜇 ) 𝜇 ≠ 𝜇 É desejável que, para cada valor alternativo de , a função potência tenha um valor elevado uma vez que é de todo o interesse que seja grande a probabilidade de se rejeitar uma hipótese falsa. RCUE RCBILATERAL Figura 4 - Representação gráfica da função potência A potência aumenta à medida que se consideram valores de cada vez mais afastados de 𝜇 e é mínima para valores muito próximos de 𝜇. É mais fácil cometer um erro ao decidir entre duas hipóteses muito idênticas (450 vs 500) do que quando elas são muito diferentes (400 vs 500). Quando a RC é unilateral, o nível de significância () é o maior valor para o qual se rejeita indevidamente H0 → é o supremo dos ’s. Tomada de decisão O objectivo é verificar se a informação recolhida na amostra, permite, ou não, rejeitar a hipótese nula. Decisão baseada na média amostral: Rejeita-se H0 se 𝑋 ≤ 455,585 porque valores de 𝑋 inferiores a 455,585 são considerados significativamente diferentes de 𝜇 ; não se rejeita H0 se 𝑋 ≥ 455,585. Como 𝑋 = 450 < 455,585, rejeitar-se-ia H0. ©ISCTE-Instituto Universitário de Lisboa 10 Graça Trindade Raul Laureano Análise inferencial 𝑅𝐶 = ] − ∞; 455,585] (região crítica) 𝑅𝐴 = ]455,585 ; +∞[ (região de aceitação) Decisão baseada no valor do teste: Rejeita-se H0 se a estatística do teste1 for: 𝒕 ≤ −1,645. Como o valor do teste é igual a: 𝑡= ⁄√ = −1,85 𝜖 𝑅𝐶, rejeita-se H0. Decisão baseada no p-value ou Sig: Para que valores da significância é que esta amostra conduziria à rejeição de H0? 450 − 500 𝑃[𝑋 ≤ 450| 𝜇 = 500] = 𝑃 𝑍 ≤ ≈ 𝑃[𝑍 ≤ −1,85] ≈ 1 − 0,9678 = 0,0322 81 √9 Figura 5: Decisão a tomar com base no valor do p-value Sendo o valor da significância ou p-value inferior a 0,05, a decisão a tomar é rejeitar H0. Decisão baseada nos outputs do SPSS Statistics: Nestes outputs é-nos indicada uma probabilidade derivada da anterior mas num teste bilateral. Este valor (p-value) é designado nos outputs por Sig. Assim, consoante a natureza do teste existem três situações possíveis para a regra de decisão: REGRA DE DECISÃO PARA UM TESTE BILATERAL: Se 𝑆𝑖𝑔 , rejeita-se H0 Se 𝑆𝑖𝑔 > , não se rejeita H0 REGRA DE DECISÃO PARA UM TESTE UNILATERAL À ESQUERDA: Se o valor do teste é concordante com a região crítica, (𝑡 < 0), então Se , rejeita-se H0 Se > , não se rejeita H0 Se o valor do teste não é concordante com a região crítica, então não se rejeita H0 1 Estatística do teste (ET) ou T ou ainda t. ©ISCTE-Instituto Universitário de Lisboa 11 Graça Trindade Raul Laureano Análise inferencial REGRA DE DECISÃO PARA UM TESTE UNILATERAL À DIREITA: Se o valor do teste é concordante com a região crítica, (𝑡 < 0), então Se , rejeita-se H0 Se > , não se rejeita H0 Se o valor do teste não é concordante com a região crítica, então não se rejeita H0 A interpretação da decisão é uma de duas e tem em consideração o que se formulou na hipótese alternativa (Ha): Rejeitar H0: existem evidências estatísticas para afirmar que o salário médio praticado é significativamente inferior a 500 u.m. De facto, na amostra aleatória obtida encontrou-se um valor médio de 450 u.m., significativamente inferior ao valor do salário mínimo: Não rejeitar H0: não existem evidências estatísticas para afirmar que o salário médio praticado é significativamente inferior a 500 u.m. De facto, na amostra aleatória obtida encontrou-se um valor médio não significativamente inferior ao valor do salário mínimo: Resumindo, e recorrendo à decisão baseada no Sig. ou p-value (𝑝), sabe-se que: se 𝑆𝑖𝑔 então, há diferenças significativas entre o observado na amostra (450 u.m.) e o que se afirma que acontece na população (500 u.m.), concluindo-se que o salário médio é significativamente diferente de 500 u.m.; se e 𝑡 > 0, então, há diferenças significativas entre o observado na amostra e o que se afirma que acontece na população, concluindo-se que o salário médio é significativamente superior a 500 u.m.; se e 𝑡 < 0, então, há diferenças significativas entre o observado na amostra e o que se afirma que acontece na população, concluindo-se que o salário médio é significativamente inferior a 500 u.m. (é a situação do exemplo 2!); se > , então, não há diferenças significativas entre o observado na amostra e o que se afirma que acontece na população, concluindo-se que o salário médio não é significativamente diferente de 500 u.m. ©ISCTE-Instituto Universitário de Lisboa 12 Graça Trindade Raul Laureano Análise inferencial 4. TESTES PARAMÉTRICOS Teste para uma média [média populacional (𝜇) e variância populacional (𝜎 𝟐 ) desconhecidas] Considere-se o seguinte exemplo. Exemplo 3: Usando a base de dados jornais_ige.sav, teste se o número médio de diários lidos semanalmente por leitores do sexo feminino é de 7 jornais, assumindo que a amostra é aleatória. 1º PASSO: adicionar um filtro para seleccionar os leitores do sexo feminino Data Select Cases If condition is satisfied If 2º PASSO: validar2 (ou não) o pressuposto de que o número de diários lidos semanalmente por leitores do sexo feminino segue distribuição normal, pretende-se responder à questão Será que a amostra é proveniente de uma população normal? H0: o Número de diários lidos semanalmente no grupo das leitoras segue distribuição normal Ha: o Número de diários lidos semanalmente no grupo das leitoras não segue distribuição normal COMO AVALIAR O PRESSUPOSTO: i. Se 𝑛 ≤ 50, realiza-se o teste não paramétrico de ajustamento à distribuição normal de Shapiro-Wilk; Sempre que 𝑛 ≤ 30, deve interpretar-se o output do teste Shapiro-Wilk (S-W); Se 30 < 𝑛 ≤ 50, deve interpretar-se o output do teste Shapiro-Wilk e, em caso de se rejeitar H0, então avalia-se a gravidade3 dessa violação: se é grave inviabiliza a realização do teste à média; se não é grave realiza-se o teste invocando-se o teorema do limite central 2 Se o pressuposto da normalidade da variável em estudo não for validado, não se pode executar o teste principal. 3 Pode fazer-se o estudo da assimetria da distribuição pelo coeficiente de assimetria (Skewness/(Std.error). ©ISCTE-Instituto Universitário de Lisboa 13 Graça Trindade Raul Laureano Análise inferencial (TLC4). O TLC permite concluir que a distribuição da variável em teste é aproximadamente normal e, por isso, mesmo que o pressuposto esteja violado não tem consequências graves para o teste; ii. Se n > 50, deve interpretar-se o output do teste de Kolmogorov-Smirnov com correção de Lilliefors (K-S) e considera-se o pressuposto verificado se o resultado do teste levar à não rejeição de H0; em caso de se rejeitar a hipótese da normalidade, pode invocar-se o TLC se a distribuição não for fortemente assimétrica e concluir que a distribuição do número de diários lidos semanalmente por leitores do sexo feminino segue distribuição aproximadamente normal pelo que a violação ao pressuposto da normalidade não tem consequências graves para o teste e, assim, realiza-se o teste t para uma média. Resumindo, têm-se as seguintes possibilidades: Sempre que 𝒏 ≤ 𝟑𝟎, não se pode invocar o TLC; Se 31 ≤ 𝑛 ≤ 𝟓𝟎, analisando o teste Shapiro-Wilk, pode invocar-se o TLC desde que a distribuição da variável em estudo não seja fortemente assimétrica. Assim, deve avaliar-se a assimetria através do coeficiente de assimetria (𝑆𝑘𝑒𝑤𝑛𝑒𝑠𝑠/𝑆𝑡𝑎𝑛𝑑𝑎𝑟𝑑 𝐸𝑟𝑟𝑜𝑟 𝑆𝑘𝑒𝑤𝑛𝑒𝑠𝑠) que deve pertencer ao seguinte intervalo: ]−1,645; 1,645[ se = 0,90 ]−1,96; 1,96[ se = 0,95 ]−2,576; 2,576[ se = 0,99 Se 𝒏 > 𝟓𝟎, analisando-se o teste Kolmogorov-Smirnov, pode invocar-se o TLC, se a distribuição não for fortemente assimétrica No SPSS Statistics Analyze, Descriptive Statistics, Explore Plots Normality plots with tests Outputs:________________________________________________________________ Case Processing Summary Cases Valid Missing Total Sexo N Percent N Percent N Percent Feminino Nº diários lidos 34 100,0% 0 0,0% 34 100,0% por semana Tests of Normality Kolmogorov-Smirnova Shapiro-Wilk Sexo Statistic df Sig. Statistic df Sig. Feminino Nº diários lidos ,139 34 ,095 ,950 34 ,126 por semana a. Lilliefors Significance Correction Decisão: Neste caso, valida-se o pressuposto da normalidade do número de diários lidos semanalmente 4 Pode invocar-se o TLC sempre que 𝑛 > 30 ou 𝑛 ≥ 31. ©ISCTE-Instituto Universitário de Lisboa 14 Graça Trindade Raul Laureano Análise inferencial por leitores do sexo feminino 𝑆𝑊( ) = 0,95; 𝑆𝑖𝑔 = 0,126. Adicionalmente, são fornecidos os seguintes gráficos constantes das Figuras 3 e 4: Figura 6: Normal Q-Q plots do Número Figura 7: Detrended normal Q-Q plots do diários lidos por semana (minutos) Número diários lidos por semana (minutos) Q-Q plot: representa os quantis da distribuição observada e a correspondente distribuição teórica caso fosse a normal padrão ( = 0; =1) quando os valores observados seguem distribuição aproximadamente normal, os pares de valores (x(j), q(j)), que no gráfico correspondem aos círculos, estarão próximos ou mesmo sobre uma linha recta. Neste caso, há um par de valores que se afasta do padrão, mas que não afeta a decisão. Detrended Normal Q-Q plot: os desvios relativos a essa recta estarão aleatoriamente distribuídos em torno do zero sem nenhum padrão definido quando a distribuição é aproximadamente normal. Casos que se afastam muito da reta significam que a distribuição se está a afastar da normal, sendo que neste exemplo a existência de um caso não afeta a decisão. 3º PASSO: formular as hipóteses associadas ao teste principal (teste t para uma média) H0: = 7 (o Número médio de diários lidos semanalmente por leitoras é de 7 jornais) HA: ≠ 7 (o Número médio de diários lidos semanalmente por leitoras não é de 7 jornais) 4º PASSO: executar o teste principal e tomar a decisão Analyze Compare Means One-Sample t-Test ©ISCTE-Instituto Universitário de Lisboa 15 Graça Trindade Raul Laureano Análise inferencial Alterar o consoante o valor de Test Value = 7 (valor de em H0) OUTPUTS: __________________________________________________________________________ One-Sample Statistics Sexo N Mean Std. Deviation Std. Error Mean Feminino Nº diários lidos 34 6,68 4,095 ,702 por semana One-Sample Test Test Value = 7 95% Confidence Interval Mean of the Difference Sexo t df Sig. (2-tailed) Difference Lower Upper Feminino Nº diários lidos -,461 33 ,648 -,324 -1,75 1,11 por semana Valor do teste = -0,461 df (degrees of freedom)5 = graus de liberdade = 34 − 1 = 33 Nível de significância: 𝛼 = 0,05 Decisão: não rejeitar 𝐻 (𝑠𝑖𝑔 > 𝛼): não há evidência estatística de que o número médio de diários lidos semanalmente seja significativamente diferente de 7 jornais 𝑡( ) = −0,461; 𝑆𝑖𝑔 = 0,648. A média amostral (6,68 jornais) não é significativamente diferente de 7 jornais. ESTIMAÇÃO DE UM INTERVALO DE CONFIANÇA PARA O VERDADEIRO NÚMERO MÉDIO DE DIÁRIOS LIDOS SEMANALMENTE: Do output, retira-se que: ∗ 𝐼𝐶 , = ]−1,75; 1,11[ intervalo para a diferença da média para 7 jornais ∗ 𝐼𝐶 , = ]−1,75 + 𝟕; 1,11 + 𝟕[ = ]5,25; 8,11[ intervalo para a média desconhecida Interpretação: Com 95% de confiança, estima-se que o verdadeiro número médio de diários lidos semanalmente por leitores do sexo feminino seja superior a 5,25 jornais e inferior 8,11 jornais. Na verdade, o número médio de jornais lidos semanalmente igual a 7 faz parte do intervalo estimado, o que mostra que as decisões retiradas de uma estimação intervalar e de um ensaio de hipóteses (paramétrico neste caso) são consistentes! 5 Graus de liberdade são o número de vínculos lineares independentes que se estabelecem entre as variáveis. ©ISCTE-Instituto Universitário de Lisboa 16 Graça Trindade Raul Laureano Análise inferencial Exemplo 4: Usando a base de dados jornais_ige.sav, teste se o Número médio de diários lidos semanalmente por leitores do sexo feminino é de pelo menos 7 jornais, assumindo que a amostra é aleatória. O que se pretende testar é: 𝜇 ≥ 7 → 𝐻 porque contém a igualdade EXECUÇÃO DO TESTE PRINCIPAL: H0: 𝜇 ≥ 7 Ha: 𝜇 < 7 RCUE O output é o mesmo do caso anterior. Decisão: como o valor do teste (-0,461) é concordante com a região crítica à esquerda, há que comparar ( ) , 𝑆𝑖𝑔. (1 − 𝑡𝑎𝑖𝑙𝑒𝑑) com o , ou seja, 𝑆𝑖𝑔 (1 − 𝑡𝑎𝑖𝑙𝑒𝑑) = = = 0,324 > 𝛼 = 0,05. Logo, não se rejeita 𝐻. A decisão não se altera e, portanto, não há indícios de que o verdadeiro número médio de diários lidos semanalmente no grupo de leitores do sexo feminino seja inferior a 7 jornais. Exemplo 5: Usando a base de dados jornais_ige.sav, teste se o Número médio de diários lidos semanalmente por leitores do sexo feminino é no máximo de 7 jornais, assumindo que a amostra é aleatória. 𝜇 ≤7 →𝐻 HIPÓTESES: H0: 𝜇 ≤ 7 Ha: 𝜇 > 7 ↔ 𝑅𝐶𝑈𝐷 O output é o mesmo. Regra: porque o valor do teste não é concordante com a região crítica, i.e., o valor do teste é negativo e a região crítica é à direita (na parte positiva da distribuição), o valor do teste RA. Decisão: Não rejeitar H0. (não é preciso “olhar” para o Sig/2 para se tomar a decisão, a não ser que seja pedido). Não há evidência estatística de que o verdadeiro número médio de diários lidos semanalmente no grupo de leitores do sexo feminino seja significativamente superior a 7 jornais. A média amostral (6,68 jornais) não é significativamente superior a 7 jornais. ©ISCTE-Instituto Universitário de Lisboa 17 Graça Trindade Raul Laureano Análise inferencial Testes t para a igualdade de duas médias Há dois testes possíveis para testar a igualdade de duas médias consoante as amostras aleatórias forem independentes ou emparelhadas. Se as amostras forem independentes é porque as (duas) categorias da variável nominal formam grupos incompatíveis de respondentes; se, pelo contrário, se observar para o mesmo respondente dois registos de respostas a duas questões, que mais não são do que duas variáveis que estão a ser respondidas por essa mesma entidade, as amostras são emparelhadas. Com amostras independentes [(1=2) ou (1-2=0)] com variâncias desconhecidas Antes da execução do teste principal há que validar primeiro os pressupostos, amostras independentes e normalidade da variável em estudo em cada grupo populacional. O teste adequado é o teste t para a igualdade das médias populacionais com amostras independentes. Portanto, a variável que vai definir os grupos populacionais tem de ser uma variável qualitativa nominal com duas categorias. Estas categorias definem grupos incompatíveis ou mutuamente exclusivos: se uma entidade (respondente/colaborador, empresa, ou instituição) pertence a um grupo, não pode pertencer ao outro grupo. CONDIÇÃO: As variâncias populacionais são desconhecidas nos 2 grupos populacionais, podendo ser iguais ou não. Contudo, precisamos de analisar o Teste de Levene para sabermos se devemos fazer a leitura do teste principal na 1ª linha (caso das variâncias populacionais não serem significativamente diferentes) ou na 2ª linha (caso das variâncias populacionais serem significativamente diferentes) do respetivo output. Exemplo 6: Usando a base de dados Random_Sample_60.sav gerada a partir de jornais_ige.sav, teste se o número médio de diários lidos por semana (minutos), no grupo populacional dos leitores do sexo masculino (1), é de pelo menos igual ou superior ao número médio de diários lidos por semana (minutos) no grupo populacional dos leitores do sexo feminino (0), assumindo que se está a usar uma amostra aleatória de dimensão igual a 60. Número de diários lidos por semana, em minutos - variável quantitativa discreta Sexo - variável qualitativa nominal que define os dois grupos independentes 1º PASSO: Gerar uma amostra aleatória de dimensão 60 Data, Select Cases, Random sample of cases, Sample ©ISCTE-Instituto Universitário de Lisboa 18 Graça Trindade Raul Laureano Análise inferencial 2º PASSO: Validação dos pressupostos (1) PRESSUPOSTO DA INDEPENDÊNCIA DAS AMOSTRAS: Um leitor escolhido ao acaso se é do sexo masculino, não pode ser do sexo feminino, ou vice-versa. Ou seja, um leitor só pode ser de um dos dois sexos (acontecimentos incompatíveis). (2) PRESSUPOSTO DA NORMALIDADE DO NÚMERO DE DIÁRIOS LIDOS POR SEMANA: Para o grupo i (i = masculino, feminino), tem-se: H0: O número de diários lidos por semana, em minutos, segue distribuição normal no grupo populacional i H1: O número de diários lidos por semana, em minutos, não segue distribuição normal no grupo populacional i OUTPUT: ___________________________________________________________________________ Tests of Normality Kolmogorov-Smirnova Shapiro-Wilk Sexo Statistic df Sig. Statistic df Sig. Nº diários lidos Feminino ,139 22 ,200* ,933 22 ,141 por semana Masculino ,192 36 ,002 ,941 36 ,053 *. This is a lower bound of the true significance. a. Lilliefors Significance Correction Decisão: como 𝑆𝑊 , = 0,933; 𝑆𝑖𝑔 = 0,141, não se rejeita H0 no grupo populacional feminino; 𝑆𝑊 , = 110,941; 𝑆𝑖𝑔 = 0,053, não se rejeita H0 no grupo populacional masculino. Portanto, o número de diários lidos por semana segue distribuição normal em ambos os grupos populacionais de leitores. ©ISCTE-Instituto Universitário de Lisboa 19 Graça Trindade Raul Laureano Análise inferencial CONDIÇÃO: Pode assumir-se que as variâncias populacionais sejam iguais ou não? Teste de Levene: H0: As variâncias do número de diários lidos por semana são iguais nos dois grupos de leitores H0: 𝜎 = 𝜎 Ha: As variâncias do número de diários lidos por semana 𝐻 :𝜎 ≠𝜎 não são iguais nos dois grupos populacionais Output: __________________________________________________________________________ Independent Samples Test Levene's Test for Equality of Variances t-test for Equality of Means 95% Confidence Interval Sig. Mean Std. Error of the Difference F Sig. t df (2-tailed) Difference Difference Lower Upper Nº diários Equal variances ,271 ,605 -1,318 56 ,193 -1,593 1,209 -4,015 ,828 lidos por assumed semana Equal variances -1,364 49,311 ,179 -1,593 1,168 -3,941 ,754 not assumed Decisão: como 𝐹 = 0,271; 𝑆𝑖𝑔 = 0,605 > 𝛼 = 0,05, não se rejeita H0. Portanto, pode assumir-se que as variâncias do número de diário lidos por semana são iguais em ambos os grupos populacionais de leitores. Sendo assim, deve-se ler o output do teste principal na 1ª linha (Equal variances assumed). 3º PASSO: Formular as hipóteses do teste principal H0: ≥ H0: − ≥ 0 𝐻𝑎: < 𝐻𝑎: − < 0 RCUE ou H0: a média do número de diários lidos por semana pelos leitores é igual ou superior à média do número de diários lidos por semana pelas leitoras Ha: a média do número de diários lidos por semana pelos leitores é igual ou inferior à média do número de diários lidos por semana pelas leitoras 4º PASSO: Tomar a decisão, acedendo aos comandos SPSS Statistics Analyze, Compare Means, Independent-Samples t-Test Outputs: __________________________________________________________________________ ©ISCTE-Instituto Universitário de Lisboa 20 Graça Trindade Raul Laureano Análise inferencial Group Statistics Sexo Std. Std. Error N Mean Deviation Mean Nº diários lidos Masculino 36 8,64 4,685 ,781 por semana Feminino 22 7,05 4,076 ,869 Independent Samples Test Levene's Test for t-test for Equality of Means Equality of Variances Mean Std. Error F Sig. t df Sig. (2-tailed) Difference Difference Nº diários lidos Equal variances ,271 ,605 1,318 56 ,193 1,593 1,209 por semana assumed Equal variances 1,364 49,311 ,179 1,593 1,168 not assumed Decisão: Como o valor do teste não é concordante com a região crítica (RCUE), não se rejeita H0. , tem. De facto, 𝑡( ) = 1,318; 𝑆𝑖𝑔(1 − 𝑡𝑎𝑖𝑙𝑒𝑑) = = 0,0965 > 𝛼 = 0,05, conduz à mesma decisão. Assim, o número médio de diários lidos, por semana, no grupo dos leitores do sexo masculino não é significativamente inferior ao número médio de diários lidos, por semana, no outro grupo dos leitores. Ou seja, não há evidência estatística de que o número médio de diários lidos por semana (minutos) no grupo populacional dos leitores do sexo masculino seja inferior ao número médio de diários lidos por semana (minutos) no grupo populacional das leitoras. Conclui-se que a diferença entre as médias amostrais (1,593) não é significativamente inferior a zero. Com amostras emparelhadas [(𝜇 = 𝜇 𝜇 = 0)] Há situações em que não se pode assumir a independência das amostras, isto é, os valores observados numa amostra não são independentes dos valores observados na outra amostra. As duas amostras, designadas oor emparelhadas, são formadas por pares de observações feitas sobre os mesmos elementos. Exemplos: “Num departamento de RH, pretende-se escolher uma de duas aplicações informáticas (A e B) para o processamento dos vencimentos dos colaboradores de uma grande empresa. Assim, selecionaram-se ao acaso 12 colaboradores e foram registados os tempos em minutos da realização da tarefa na aplicação A e na aplicação B para cada um dos 12 colaboradores. Será que uma das aplicações é mais vantajosa em termos de tempo de reailização? “De um questionário a 10 empresas selecionadas ao acaso em certo sector industrial foram registadas as respostas sobre os montantes despendidos com ações de formação do pessoal (em u.m.) há 5 anos atrás e no ano passado pelas mesmas empresas. Pretende-se saber qual a evolução ocorrida nesse período de tempo” ©ISCTE-Instituto Universitário de Lisboa 21 Graça Trindade Raul Laureano Análise inferencial (…) TESTE ADEQUADO: O teste adequado a estas situações é o teste paramétrico t para duas amostras emparelhadas (Paired-Samples t Test), ou seja o teste t para a média da Diferença se o pressuposto da normalidade da nova variável diferença for validado. Devem ser calculadas para cada indivíduo ou entidade as diferenças de valores 𝐷𝑖𝑓 = 𝑋 − 𝑋. Se a hipótese nula for verdadeira, os valores de 𝐷𝑖𝑓 pertencem a uma população de média zero. FORMULAÇÃO DAS HIPÓTESES: H0: 𝜇 = 0 ou H0: a média da diferença entre 𝑋 e 𝑋 é igual a zero Ha: 𝜇 ≠ 0 Ha: a média da diferença entre 𝑋 e 𝑋 é diferente de zero PRESSUPOSTOS: (1) AMOSTRAS EMPARELHADAS: As amostras são provenientes de uma população normal (com variância desconhecida). Sendo as amostras emparelhadas, é expectável6 que as variáveis quantitativas estejam relacionadas e, portanto, espera-se rejeitar a hipótese nula de que o coeficiente de correlação linear seja igual a zero. H0: 𝜌 = 0 Ha: 𝜌 ≠ 0 O estimador para proceder à inferência deste parâmetro (desconhecido) é o R-Pearson. (2) NORMALIDADE DA VARIÁVEL DIFERENÇA: Para verificar o pressuposto relacionado com a distribuição normal, recorre-se ao teste KS ou ao teste SW, consoante a dimensão da amostra, para testar se a variável diferença segue distribuição normal. Exemplo 7: Teste na base de dados jornais_ige.sav se o número médio de semanários lidos por semana é idêntico ao número médio de diários lidos também por semana. 6 Em situações em que não há qualquer expetativa relativamente ao coeficiente de correlação linear na população, não se deve interpretar este output. ©ISCTE-Instituto Universitário de Lisboa 22 Graça Trindade Raul Laureano Análise inferencial VALIDAÇÃO DOS PRESSUPOSTOS: (1) AMOSTRAS EMPARELHADAS: Os leitores que respondem à primeira questão são os mesmos que respondem à segunda questão. Logo, as amostras são emparelhadas. (2) NORMALIDADE DAS VARIÁVEIS NÚMERO MÉDIO DE SEMANÁRIOS E DE DIÁRIOS LIDOS POR SEMANA OU NORMALIDADE DA DIFERENÇA ENTRE OS NÚMEROS DE SEMANÁRIOS E DIÁRIOS LIDOS POR SEMANA: 1º PASSO: construir a variável Diferença através dos comandos Transform, Compute 2º PASSO: testar se a nova variável Diferença segue distribuição normal H0: A Diferença entre os números de semanários e diários lidos por semana segue distribuição normal H1: A Diferença entre os números de semanários e diários lidos por semana não segue distribuição normal Output:______________________________________________________________________ Case Processing Summary Cases Valid Missing Total N Percent N Percent N Percent Diferença 88 88,0% 12 12,0% 100 100,0% Tests of Normality Kolmogorov-Smirnova Shapiro-Wilk Statistic df Sig. Statistic df Sig. Diferença ,071 88 ,200* ,978 88 ,146 *. This is a lower bound of the true significance. a. Lilliefors Significance Correction Decisão: Como 𝐾𝑆( ) = 0,071; 𝑆𝑖𝑔 = 0,200, o pressuposto da normalidade da variável Diferença está validado. FORMULAÇAO DE HIPÓTESES DO TESTE PRINCIPAL: (teste t para a igualdade de duas médias com amostras emparelhadas): H0: 𝜇 = 0 Ha: 𝜇 ≠ 0 onde 𝜇 é a média da diferença entre o número de semanários lidos por semana e o número de diários lidos por semana ou H0: a média da diferença entre o número de semanários lidos por semana e o número de diários lidos por semana é igual a zero Ha: a média da diferença entre o número de semanários lidos por semana é diferente de zero ©ISCTE-Instituto Universitário de Lisboa 23 Graça Trindade Raul Laureano Análise inferencial Os comandos SPSS Statistics são Analyze, Compare Means, Paired-Sample t Test Outputs: __________________________________________________________________________ Paired Samples Statistics Mean N Std. Deviation Std. Error Mean Pair 1 Nº semanários lidos por semana 1,7131 88 ,72073 ,07683 Nº diários lidos por semana 8,27 88 4,404 ,469 Paired Samples Correlations N Correlation Sig. Pair 1 Nº semanários lidos por semana 88 -,215 ,044 & Nº diários lidos por semana Decisão: o número de semanários lidos por semana e o número de diários lidos por semana estão linear, fraca e inversamente relacionados na amostra (𝑅 𝑃𝑒𝑎𝑟𝑠𝑜𝑛 = −0,215), o que quer dizer que as valores das variáveis variam em sentidos opostos. Na população, as variáveis estão relacionadas, i. e., não são independentes (𝑆𝑖𝑔 = 0,044). Paired Samples Test Paired Differences 95% Confidence Interval Std. Std. Error of the Difference Sig. (2- Mean Deviation Mean Lower Upper t df tailed) Pair 1 Nº semanários lidos por semana - Nº diários lidos -6,55966 4,61304 ,49175 -7,53707 -5,58225 -13,339 87 ,000 por semana Decisão: como t ( ) = −13,339; Sig < 0,001), rejeita-se H0. Há evidência estatística de que a média da diferença entre o número de semanários lidos por semana e o número de diários lidos por semana seja significativamente diferente de zero. O que quer dizer que o número médio de semanários lidos por semana não é igual ao número médio de diários lidos por semana. A média amostral da diferença entre os números de semanários lidos por semana e o número de diários lidos por semana ( -6,56) afasta-se significativamente de zero. De facto, na amostra, verifica-se que o número médio de semanários é de 1,71, sendo o número médio de diários bastante superior (8,3 diários). ©ISCTE-Instituto Universitário de Lisboa 24 Graça Trindade Raul Laureano Análise inferencial Exemplo 8: Usando a base de dados Regional_Sol.sav, gerada a partir de jornais_ige.sav, teste se o tempo médio de leitura do semanário Regional lidos por mês (minutos) é superior ao tempo médio do tempo de leitura do semanário Sol lidos por mês (minutos), tndo por base 25 leitores, escolhidos ao acaso. Tabela 7: Registo dos tempos de leitura dos semanários Regional e Sol lidos por mês Tempos de leitura dos semanários por mês Regional Sol Diferença Leitores (1) (2) (1) − (2) 1 60,00 45,00 15,00 2 45,00 45,00 ,00 3 90,00 60,00 30,00 4 90,00 60,00 30,00 5 30,00 45,00 -15,00 6 45,00 60,00 -15,00............ 23 60,00 30,00 30,00 24 90,00 90,00 ,00 5 50,00 90,00 -40,00 VALIDAÇÃO DOS PRESSUPOSTOS: (1) AMOSTRAS EMPARELHADAS: Os leitores que respondem à primeira questão são os mesmos que respondem à segunda questão. Logo, as amostras são emparelhadas. (2) NORMALIDADE DA DIFERENÇA ENTRE OS TEMPOS DE LEITURA DOS SEMANÁRIOS REGIONAL E SOL LIDOS POR MÊS: H0: A Diferença entre os tempos de leitura dos semanários Regional e Sol segue distribuição normal H1: A Diferença entre os tempos de leitura dos semanários Regional e Sol não segue distribuição normal Output: ___________________________________________________________________________ Tests of Normality Kolmogorov-Smirnova Shapiro-Wilk Statistic df Sig. Statistic df Sig. Diferença_Tempos ,162 25 ,089 ,952 25 ,278 a. Lilliefors Significance Correction Decisão: o pressuposto da normalidade da diferença entre os tempos de leitura dos semanários Regional e Sol lidos por mês está validado (𝑆𝑊( ) = 0,952; 𝑆𝑖𝑔 = 0,278). ©ISCTE-Instituto Universitário de Lisboa 25 Graça Trindade Raul Laureano Análise inferencial FORMULAÇÃO DAS HIPÓTESES: H0: a média da diferença entre o tempo de leitura do semanário Regional lidos por mês e o tempo de leitura do semanário Sol lidos por mês é no máximo igual a zero Ha: a média da diferença entre o tempo de leitura do semanário Regional lidos por mês e o tempo de leitura do semanário Sol lidos por mês é superior a zero ou H0: 𝜇 0 Ha: 𝜇 > 0 onde 𝜇 é a média da diferença entre os tempos de leitura dos semanários Regionale Sol lidos por mês Outputs: __________________________________________________________________________ Paired Samples Statistics Std. Std. Error Mean N Deviation Mean Pair 1 Tempo_leitura_Regional 61,4000 25 22,61637 4,52327 Tempo_leitura_Sol 57,0000 25 19,36492 3,87298 Paired Samples Correlations N Correlation Sig. Pair 1 Tempo_leitura_Regional & 25 ,110 ,601 Tempo_leitura_Sol Decisão: O tempo de leitura do semanário Regional lidos por mês e o tempo de leitura do semanário Sol lidos por mês estão linear e fracamente relacionados na amostra e esta relação é de sinal positivo (𝑅 𝑃𝑒𝑎𝑟𝑠𝑜𝑛 = 0,110), o que quer dizer que as valores das variáveis variam na mesma direção. Na população, as variáveis não estão relacionadas, i. e., são independentes (𝑆𝑖𝑔 = 0,601). Paired Samples Test Paired Differences 95% Confidence Interval Std. Std. Error of the Difference Sig. (2- Mean Deviation Mean Lower Upper t df tailed) Pair 1 Tempo_leitura_Regional 4,40000 28,11139 5,62228 -7,20381 16,00381 ,783 24 ,442 - Tempo_leitura_Sol Decisão: Não se rejeita H0 (t ( ) = 0,783; Sig (1 − tailed) = 0,221). Não há evidência estatística de que a média da diferença entre o número de semanários lidos por semana e o número de diários lidos por semana seja superior a zero. O que quer dizer que, na amostra, o tempo médio de leitura do semanário Regional lidos por mês (61,4 minutos) não é significativamente superior ao tempo médio de leitura do semanário Sol lidos por mês 57 minutos). Consequentemente, a média amostral da diferença entre os tempos de leitura destes semanários lidos por mês não é significativamente superior a zero (4,4 minutos). ©ISCTE-Instituto Universitário de Lisboa 26 Graça Trindade Raul Laureano Análise inferencial Teste para a igualdade de mais de duas médias (One-Way Anova ou Análise da variância simples) A análise de variância usa-se sempre que se pretende testar se determinado fator independente quando aplicado a várias populações (grupos populacionais) tem um efeito significativo sobre determinada variável dependente. Assim sendo, permite testar se as médias populacionais da variável dependente são iguais para diferentes níveis do fator independente. 𝐴 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ EM QUE CENÁRIO (A OU B) É QUE O FACTOR INDEPENDENTE EXPLICA VARIAÇÕES DA DEPENDENTE? 𝐵 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ Consideremos k amostras (ou grupos) independentes retiradas de populações X1, X2,..., Xk em que 𝑋 é o valor observado para o indivíduo i (i = 1, 2,..., nj) pertencente à amostra j (j = 1, 2,..., k) e 𝑛 , 𝑛 ,... , 𝑛 é a dimensão de cada uma das amostras. Pressupostos Os pressupostos são: 1) As amostras são provenientes de populações (ou população) com distribuição normal (Testes Kolgomorov-Smirnov ou Shapiro-Wilk) 2) Variâncias populacionais são desconhecidas mas iguais (𝜎 = 𝜎 =... = 𝜎 = ) (Teste de Levene). Quando não se pode assumir a igualdade das variâncias populacionais, podem ©ISCTE-Instituto Universitário de Lisboa 27 Graça Trindade Raul Laureano Análise inferencial realizar-se testes robustos à comparação de mais de 2 médias como sejam os testes de Welch ou o teste Brown-Forsythe que são alternativos ao teste da ANOVA. 3) As amostras são independentes Hipóteses A formulação das hipóteses são: H0:𝜇 = 𝜇 =... = 𝜇 Ha: 𝜇 ≠ 𝜇 ∃𝑖,𝑗 , com 𝑖 ≠ 𝑗 𝑒 𝑖, 𝑗 = 1, 2,... onde 𝜇 é a média da variável quantitativa em estudo no grupo populacional i (categoria i da variável nominal com mais de duas categorias) Pretende-se testar a hipótese nula de igualdade de médias dos k grupos contra a hipótese alternativa da existência de pelo menos dois grupos cujas médias são significativamente diferentes entre si (ou que existem diferenças significativas entre pelo menos um par de médias7. Estatística do teste Apesar das hipóteses a testar dizerem respeito à igualdade de k médias o método designa-se de análise de variância porque a estatística do teste assenta na decomposição da variância total (SST) na variação explicada pelo fator independente (SSB), e que é um indicador das diferenças entre os grupos, e na variação devido ao erro (SSW), variação não explicada pelo fator independente, um indicador das diferenças existentes dentro dos grupos. SST = SSB + SSW k nj k k nj X n X X 2 2 2 ij X j j X ij Xj j 1 i 1 j 1 j 1 i 1 com: k – número de grupos; 𝑛 é a dimensão do grupo j (𝑗 = 1, … , 𝑘 ); 𝑋 – observação para o indivíduo i do grupo j; 𝑋 – média amostral do grupo j; 𝑋 – média global de todas as observações. Da mesma forma, os graus de liberdade associados à soma total de quadrados, SST, (n - 1), podem decompor-se em duas parcelas: graus de liberdade para a soma de quadrados entre os grupos, SSB, (k - 1) e a soma de quadrados dentro dos grupos, SSW, (n - k). (𝑛 − 1) = (𝑘 – 1) + (𝑛 − 𝑘) A análise de variância simples compara as diferenças entre (between) grupos com a heterogeneidade dentro (within) de cada grupo. As somas de quadrados depois de divididas pelos 7 O(s) grupo(s) responsável(eis) por tal(ais) diferença(s) são conhecidos a posteriori a partir dos testes de comparações múltiplas a posteriori (conhecidos por testes post-hoc). ©ISCTE-Instituto Universitário de Lisboa 28 Graça Trindade Raul Laureano Análise inferencial respetivos graus de liberdade denominam-se somas das médias de quadrados (MSS) que não são mais do que variâncias. As hipóteses são testadas com a seguinte estatística de teste, identificada por F: 𝑆𝑆𝐵⁄(𝑘 − 1) 𝑀𝑆𝑆𝐵 𝐹= = ∩ 𝐹( , ) ↔ 𝑅𝐶𝑈𝐷 𝑆𝑆𝑊 ⁄(𝑛 − 𝑘) 𝑀𝑆𝑆𝑊 Sob a hipótese nula (H0), a estatística do teste (F) segue uma distribuição F de Snedecor com (k- 1, n-k) graus de liberdade. RCUD: a região crítica é unilateral à direita (RCUD) porque valores altos para F significam que as variações ocorridas entre os grupos (SSB), as devidas ao fator independente, são manifestamente superiores às variações ocorridas dentro dos grupos, as devidas ao erro (SSW) e, sendo assim, valores altos para F conduzem à rejeição de H0. É usual apresentarem-se os resultados da análise de variância simples numa tabela (Tabela 8): Tabela 8: Fontes da variação pela decomposição da variância total SOMA DOS GRAUS SOMAS MÉDIAS FONTES VARIAÇÃO F QUADRADOS LIBERDADE DOS QUADRADOS ENTRE GRUPOS SSB (k – 1) MSSB = SSB/(k - 1) (Between) 𝑀𝑆𝑆𝐵 DENTRO GRUPOS 𝐹= SSW (n – k) MSSW = SSW/(n - k) 𝑀𝑆𝑆𝑊 (Within) TOTAL SST (n – 1) Teste de Welch (1951) e teste de Brown-Forsythe (1974) enquanto testes alternativos ao teste da ANOVA: Usa-se um destes testes para testar a igualdade de médias quando não se assume o pressuposto de igualdade de variâncias. O teste de Welch (1951) corrige o denominador do rácio da estatística do teste F de modo a garantir a mesma expectativa que o numerador quando H0 é verdadeira, apesar de se registar a heterogeneidade da variância dentro de cada grupo (within). In Welch (1947,1951), he derived the an approximate test for equality of means without the homogeneous variance assumption. one cannot compute the statistic if any one group has zero standard deviation. Moreover, sample sizes of all groups have to be greater than or equal to zero ©ISCTE-Instituto Universitário de Lisboa 29 Graça Trindade Raul Laureano Análise inferencial O teste de Brown-Forsythe (1974) usa uma fórmula diferente para o denominador da estatística F da Anova. Em vez de se dividir pelas somas médias de quadrados do erro, corrigem-se estas somas médias usando-se as variâncias observadas em cada grupo. When we look at the denominator of , we can see that it tries to estimate the ‘pooled variance’ by where The Brown & Forsythe statistic cannot be computed if all groups have zero standard deviation or any group has sample size less than or equal to 1. In the situation that some groups have zero standard deviations, the statistic can be computed but the approximation may not work Testes de comparações múltiplas a posteriori [Post Hoc Multiple Comparisons tests] Nos casos em que se rejeita a hipótese de igualdade de k médias (pelo menos um dos pares apresenta médias diferentes) no teste principal, interessa determinar quais as médias que são significativamente diferentes entre si. Passamos então à realização de testes de comparação múltipla – comparam-se as diferenças possíveis entre as k médias populacionais, consideradas duas a duas. QUANDO SE ASSUME A IGUALDADE DAS VARIÂNCIAS POPULACIONAIS 1. Teste de Scheffé: é um dos mais utilizados pela maior simplicidade de cálculo, por permitir a comparação de amostras com diferentes dimensões e, por ser robusto aos pressupostos de normalidade. Segundo Maroco (2010), este é um teste que pode ser utilizado quando se compara um número reduzido de grupos. 2. Teste de Tukey: é um dos “mais potentes e robustos testes aos desvios à normalidade e homogeneidade das variâncias para amostras grandes “ (Maroco, 2010). 3. Teste de Bonferroni: é um dos mais adequados para amostras pequenas (Maroco, 2010). (...) QUANDO NÃO SE ASSUME A IGUALDADE DAS VARIÂNCIAS POPULACIONAIS 1. Teste de Dunnett’s C O teste Dunnett´s C controla o nível de significância em vários testes múltiplos. 2. Teste Games-Howell: é adequado em amostras de dimensões diferentes. ©ISCTE-Instituto Universitário de Lisboa 30 Graça Trindade Raul Laureano Análise inferencial (...) Finalmente, note-se que se pode rejeitar H0 no teste da Anova e não se detetarem diferenças entre pares de médias quando se acede a testes de comparação múltipla de médias porque o teste da Anova é um teste mais potente, isto é, a probabilidade de se rejeitar corretamente H0 é maior. Também, por este motivo, existem diversos testes post-hoc para identificar as diferenças entre grupos. Exemplo 98: Pretende-se saber se há diferenças significativas no comportamento dos leitores de três importantes semanários relativamente ao Tempo de leitura do semanário, em minutos, recorrendo a uma Análise de variância simples em que os pressupostos já foram verificados, usando a base de dados Anova_Mao.sav. Variável dependente: Tempo de leitura dos semanários preferidos (minutos) – variável quantitativa Semanário preferido – variável qualitativa nominal com três categorias que definem os respetivos grupos independentes (A, B; e C) A informação dos tempos de leitura de 20 leitores consta da tabela seguinte9: Semanários Casos A B C 1 100 80 62 2 110 70 65 3 85 65 68 4 60 75 75 5 95 69 80 6 96 91 70 7 78 8 120 Pretende-se saber se, na população de onde estas amostras foram retiradas, os tempos médios de leitura dos semanários são idênticos ou não Hipóteses: H0: 𝜇 = 𝜇 = 𝜇 Ha: ∃(𝑖, 𝑗), 𝜇 ≠ 𝜇 , 𝑖 ≠ 𝑗, 𝑖, 𝑗 = 𝐴, 𝐵, 𝐶 onde 𝜇 é o tempo médio de leitura dos semanáros no grupo i ou j (A, B, C) ou H0: O Tempo médio de leitura do semanário, em minutos, é idêntico para os diferentes semanários preferidos 8 Exemplo calculado à mão. 9 Ver exemplo 17, pag 195-197 do livro de Estatística Aplicada, Vol. 2, edições Sílabo. ©ISCTE-Instituto Universitário de Lisboa 31 Graça Trindade Raul Laureano Análise inferencial Ha: O Tempo médio de leitura do semanário, em minutos dos semanários é diferente em, pelo menos, um dos semanários preferidos Cálculos das variações: 100 + ⋯ + 120 744 80 + ⋯ + 91 450 𝑋 = = = 93 𝑋 = = = 75 8 8 6 6 62 + ⋯ + 70 420 100 + ⋯ + 70 1614 𝑋 = = = 70 𝑋= = = 80,7 6 6 20 20 𝑆𝑆𝐵 = [8 × (93 − 80,7) ] + [6 × (75 − 80,7) ] + [6 × (70 − 80,7) ] = 2092,2 𝑆𝑆𝑊 = [(100 − 90,3) + (110 − 90,3) + ⋯ + (120 − 90,3) ] + [(80 − 75) + (70 − 75) ] + ⋯ + (91 − 75) ] + [(62 − 70) + (65 − 70) + ⋯ + (70 − 70) ] = 3318,2 𝑆𝑆𝑇 = (100 − 80,7) + (110 − 80,7) + (85 − 80,7) + (60 − 80,7) + (95 − 80,7) + (96 − 80,7) + (78 − 80,7) + (120 − 80,7) + (80 − 80,7) + ⋯ + (70 − 80,7) + (91 − 80,7) + (62 − 80,7) + ⋯ + (70 − 80,7) = 5210,20 Tabela 9: Fontes de variação dos tempos de leitura dos semanários, em minutos FONTES DE SOMAS DE SOMAS MÉDIAS DE g.l.10 F VARIAÇÃO QUADRADOS QUADRADOS SSB (Between) 2092,2 2 1046,1 5,70 SSW (Within) 3118,2 17 183,42 SST (Total) 5210,2 19 𝑺𝑺𝑩 Note-se que 𝑬𝑻𝑨𝟐 = 𝑺𝑺𝑻 Cálculo do valor crítico (em abcissa)11: 10 Graus de liberdade. 11 Por consulta nas tabelas estatísticas da distribuição F-Snedecor. Como os graus de Liberdade (2, 17) não estão tabelados, sugere-se que se calcule o valor crítico por interpolação linear. ©ISCTE-Instituto Universitário de Lisboa 32 Graça Trindade Raul Laureano Análise inferencial F2;15 ;0 ,95 3,68 3,68 3,49 F2;17 ;0 ,95 3,585 F2; 20 ; 0,95 3,49 2 É então possível identificar a região crítica e de aceitação para um nível s esignificância de 0,05: RA=]0; 3,585] RC=[3,585; +[ Decisão: Como 𝐹( ; ) ≈ 𝟓, 𝟕𝟎 ≥ 3,585 ∈ 𝑅𝐶, rejeita-se H0. Rejeita-se a hipótese nula de igualdade de médias entre os três grupos. Pelo menos dois grupos de leitores têm médias de tempos de leitura diferentes. Com recurso ao SPSS Statistics, obtém-se informação mais rápida sobre os pressupostos deste teste e sobre o grupo responsável pela tomada de decisão anterior. Outputs: __________________________________________________________________________ Descriptives Tempo de leitura de um semanário, em minutos 95% Confidence Interval for Mean Std. Lower Upper N Mean Deviation Std. Error Bound Bound Minimum Maximum A 8 93,0000 18,73881 6,62517 77,3340 108,6660 60,00 120,00 B 6 75,0000 9,40213 3,83840 65,1331 84,8669 65,00 91,00 C 6 70,0000 6,60303 2,69568 63,0705 76,9295 62,00 80,00 Total 20 80,7000 16,55962 3,70284 72,9499 88,4501 60,00 120,00 TESTE PRINCIPAL: ANOVA Tempo de leitura de um semanário, em minutos Sum of Mean Squares df Square F Sig. Between Groups 2092,200 2 1046,100 5,704 ,013 Within Groups 3118,000 17 183,412 Total 5210,200 19 Decisão com base no p-value: como 𝐹( ; ); , = 𝟓, 𝟕𝟎𝟒; 𝑆𝑖𝑔 = 0,013 ≤ 𝛼 = 0,05, rejeita-se a hipótese nula de que os Tempos médios de leitura do semanário, em minutos, sejam idênticos em cada grupo populacional. QUE SEMANÁRIO(S) PREFERIDO(S) É(SÃO) RESPONSÁVEL(IS) PELA REJEIÇÃO DE H0? TESTE DE COMPARAÇÕES MÚLTIPLAS Post-Hoc Tests (Multiple Comparisons) Como se está perante amostras de pequena dimensão, escolhe-se o teste de Bonferroni: ©ISCTE-Instituto Universitário de Lisboa 33 Graça Trindade Raul Laureano Análise inferencial Outputs:___________________________________________________________________________ H0: i j Multiple Comparisons Ha: i j Dependent Variable: Tempo de leitura de um semanário, em minutos Bonferroni (I) Semanário (J) Semanário Mean Difference 95% Confidence Interval preferido preferido (I-J) Std. Error Sig. Lower Bound Upper Bound A B 18,00000 7,31403 ,075 -1,4187 37,4187 C 23,00000* 7,31403 ,018 3,5813 42,4187 B A -18,00000 7,31403 ,075 -37,4187 1,4187