Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Intervalos de confiança e o teorema do limite central
Intervalos de confiança e o teorema do limite central
Olá a todos, hoje estaremos aplicando o Teorema do Limite Central e construindo intervalos de confiança para a média da população. A fórmula para o intervalo de confiança para a média da população, mu, baseia-se na suposição de que a população sendo amostrada segue uma distribuição perfeitamente normal com média mu e variância sigma ao quadrado. No entanto, em muitos casos, essa suposição não é razoável. Por exemplo, ao determinar a duração média das chamadas de um banco telefônico, é improvável que a distribuição das durações das chamadas seja normal. É mais provável que tenha um histograma com uma distribuição assimétrica, em vez de uma curva de sino.
No entanto, ainda podemos construir um intervalo de confiança para a média da população, mu, utilizando o Teorema do Limite Central. Este teorema afirma que, desde que o tamanho da amostra, n, seja suficientemente grande (geralmente n ≥ 30), a distribuição amostral da média amostral será aproximadamente distribuída normalmente, independentemente da forma da distribuição da população. Para visualizar isso, imagine coletar repetidamente amostras de tamanho n, calculando a média amostral (x bar) a cada vez e criando um histograma dessas médias amostrais. De acordo com o Teorema do Limite Central, esse histograma exibirá uma curva em forma de sino centrada na média da população, com uma dispersão medida pela variância da população dividida pelo tamanho da amostra.
É importante observar que essa aproximação melhora à medida que o tamanho da amostra, n, aumenta. Vamos trabalhar com alguns exemplos para ilustrar esse conceito. Suponha que o desvio padrão das ligações para o banco telefônico seja sigma = 1 minuto, e estamos obtendo amostras de tamanho 81. A distribuição das médias amostrais (x bar) será aproximadamente normal, com média igual à média da população e padrão desvio de sigma dividido pela raiz quadrada de n (1 / √81 ≈ 0,11 neste caso).
Com essas informações, podemos calcular intervalos de confiança, semelhantes a quando a distribuição da população é considerada normal. No entanto, devemos lembrar que esses intervalos de confiança são apenas aproximados. Por exemplo, se tivermos uma amostra de tamanho 81 e encontrarmos uma média amostral de 1,1 minutos, podemos construir um intervalo de confiança de 95% para a média da população usando a fórmula:
mu ≈ x barra ± z estrela * sigma / √n
Ao inserir os valores (x bar = 1,1, sigma = 1,0, n = 81) e usar o valor z crítico (z star) correspondente a 95% de confiança (1,960), descobrimos que a média da população (mu) é aproximadamente 1,1 ± 0,22 minutos com 95% de confiança.
Vamos considerar outro exemplo. Uma grande corporação emprega milhares de balconistas em lojas de varejo em todo o país. Em uma amostra de tamanho 35, o número médio de horas trabalhadas por semana foi 23. Queremos construir um intervalo de confiança de 90% para o número médio de horas trabalhadas por todos os funcionários desta empresa, assumindo um desvio padrão (sigma) de 5 horas. Podemos usar a mesma fórmula:
mu ≈ x barra ± z estrela * sigma / √n
Ao inserir os valores (x bar = 23, sigma = 5, n = 35) e usar o valor z crítico (z star) correspondente a 90% de confiança (1,645), descobrimos que a média da população (mu) é aproximadamente 23 ± 1,4 horas com 90% de confiança.
Em resumo, mesmo que a distribuição da população não seja exatamente normal, ainda podemos usar o Teorema do Limite Central para construir intervalos de confiança aproximados para a média da população. Esses intervalos fornecem informações valiosas e nos ajudam a fazer inferências estatísticas, entendendo o nível de confiança associado às nossas estimativas.
Intervalos de confiança e tamanho da amostra
Intervalos de confiança e tamanho da amostra
Olá a todos, hoje estaremos discutindo intervalos de confiança e tamanho da amostra. Quando temos uma amostra aleatória simples de tamanho "n" com uma média amostral "x bar", podemos construir um intervalo de confiança de nível "c" para a média populacional "mu" usando a fórmula:
mu = x bar ± z estrela * sigma / √n
Aqui, "z star" representa o escore z crítico correspondente ao nível de confiança "c" e "sigma" é o desvio padrão da população. O termo "z star * sigma / √n" é referido como a margem de erro, que é uma estimativa de quanto nossa média amostral pode desviar da verdadeira média populacional "mu".
A ideia por trás da construção de um intervalo de confiança é que, grosso modo, "mu" cairá dentro da margem de erro de "x bar" uma porcentagem "c" do tempo.
Agora, vamos considerar uma questão prática: de que tamanho de amostra precisamos se quisermos que a margem de erro não seja maior do que um limite especificado "e"? Nesse caso, conhecemos "e", a margem de erro desejada, "c", o nível de confiança e "sigma", o desvio padrão da população (supondo que seja conhecido). Precisamos encontrar o tamanho de amostra necessário "n" resolvendo a equação algebricamente.
Para calcular o tamanho da amostra, multiplicamos ambos os lados da equação por √n, dividimos ambos os lados por "e" e elevamos ao quadrado ambos os lados, o que nos dá:
n = (z estrela * sigma / e)^2
Se o valor resultante de "n" não for um número inteiro, o que geralmente ocorre, pois "z estrela" tende a ser irracional, arredondamos para o número inteiro mais próximo. É importante observar que aumentar o tamanho da amostra diminui a margem de erro, e arredondar "n" pode aumentar a margem de erro além do limite desejado "e".
A pontuação z crítica, "estrela z", é determinada pelo nível de confiança especificado "c". Esse valor pode ser calculado por meio de tecnologia ou consultando uma tabela. Embora o uso de tabelas para cálculos estatísticos normalmente não seja recomendado, no caso de níveis de confiança comumente usados, como um nível de confiança de 95% (correspondente ao escore z de 1,960), a tabela é pequena e razoável de usar.
Vamos considerar um exemplo: suponha que queremos determinar o peso de um estatístico para o meio quilo mais próximo com 95% de confiança usando uma balança com um desvio padrão de 1,2 quilo. Quantas vezes precisamos pesar o estatístico?
Ao inserir os valores fornecidos na fórmula de tamanho de amostra, descobrimos que o tamanho de amostra mínimo necessário é de 23 pesagens, que arredondamos para 23. Portanto, precisamos pesar o estatístico 23 vezes para saber seu peso até a meia libra mais próxima com 95% de confiança.
Como esperado, se aumentarmos o nível de confiança ou diminuirmos a margem de erro, o tamanho amostral necessário também aumentará. Por outro lado, se aumentarmos a margem de erro, o tamanho da amostra necessário diminuirá.
Em outro exemplo, digamos que um fabricante deseja determinar o peso médio de um determinado tipo de prego de ferro dentro de 0,2 gramas com 99% de confiança e o desvio padrão da população é de 0,5 gramas. Ao aplicar a fórmula do tamanho da amostra, descobrimos que é necessário um tamanho mínimo de amostra de 42 pregos para atingir um nível de confiança de 99% com uma margem de erro não inferior a 0,2 gramas.
Compreender os intervalos de confiança e sua relação com o tamanho da amostra nos permite planejar estudos e experimentos de forma eficaz, garantindo que nossas estimativas sejam precisas e confiáveis dentro do nível desejado de confiança e precisão.
Intervalos de confiança usando a distribuição t
Intervalos de confiança usando a distribuição t
Olá a todos, na sessão de hoje, construiremos intervalos de confiança usando a distribuição t. Em nossas discussões anteriores, usamos a fórmula mu igual a x barra mais ou menos z-estrela sigma sobre a raiz quadrada de n para aproximar a média populacional mu da média amostral x barra e calcular a margem de erro. No entanto, esta fórmula pressupõe que conhecemos o sigma do desvio padrão da população, o que muitas vezes não é o caso.
Para superar essa limitação, podemos estimar o sigma do desvio padrão da população usando o desvio padrão da amostra s. A fórmula do intervalo de confiança com a distribuição t é semelhante à anterior, com uma pequena modificação. Em vez do escore z crítico, usamos o valor t crítico com base no nível de confiança escolhido. A distribuição t descreve a variabilidade da variável t, que é dada por t igual a x bar menos mu sobre s dividido pela raiz quadrada de n. A distribuição t é simétrica e em forma de sino, semelhante à distribuição normal padrão, mas com um pouco mais de dispersão para tamanhos de amostra menores.
Para construir um intervalo de confiança, precisamos encontrar os valores de corte para t, denotados como t-star, de modo que a probabilidade de t estar entre negativo t-star e positivo t-estrela seja igual ao nível de confiança escolhido. Depois de determinar t-estrela, podemos calcular o intervalo de confiança usando a fórmula mu igual a x bar mais ou menos t-estrela s sobre a raiz quadrada de n.
Vamos trabalhar com um exemplo. Um grupo de pesquisadores quer investigar as concentrações de sódio em um lago canadense. Eles coletaram 23 amostras e encontraram uma média de 24,7 partes por milhão e um desvio padrão da amostra de 4,2 partes por milhão. Queremos construir um intervalo de confiança de 95% para a concentração média de sódio no lago. Como não conhecemos o desvio padrão da população, usaremos a distribuição t.
Conectando os valores, temos x bar igual a 24,7, s igual a 4,2 e n igual a 23. Para encontrar o valor t crítico, precisamos determinar o valor t-star que corresponde a deixar 2,5% da área em cada lado da distribuição t. Usando um cálculo t inverso, descobrimos que t-estrela é aproximadamente 2,074.
Agora podemos construir o intervalo de confiança: 24,7 mais ou menos 2,074 vezes 4,2 dividido pela raiz quadrada de 23. Simplificando essa expressão, obtemos um intervalo de confiança de 24,7 mais ou menos 1,8.
Vale a pena notar que o valor-t crítico, 2,074, é um pouco maior do que o valor-z crítico teria sido para o mesmo nível de confiança. Isso ocorre porque estamos estimando o desvio padrão da população, introduzindo alguma incerteza adicional, resultando em um intervalo de confiança um pouco mais amplo.
Em resumo, ao construir intervalos de confiança sem conhecer o desvio padrão da população, usamos a distribuição t e estimamos o desvio padrão da população com o desvio padrão da amostra. O restante do processo é semelhante à construção de intervalos de confiança com desvio padrão conhecido, mas com valores t críticos em vez de pontuações z críticas.
Usando R para calcular na distribuição t
Usando R para calcular na distribuição t
Olá a todos, hoje vamos realizar alguns cálculos usando a distribuição t em R. Vamos resolver três problemas passo a passo. Vamos mergulhar de cabeça!
Primeiro, vamos falar sobre como calculamos probabilidades na distribuição t usando a função de distribuição cumulativa (CDF). Ao inserir um valor t específico, como 0,44, o CDF nos dá a probabilidade de obter aleatoriamente um escore t menor ou igual a esse valor. Visualmente, isso corresponde a representar graficamente uma curva de sino, pois as distribuições t exibem padrões em forma de sino.
Para encontrar a probabilidade, rotulamos a pontuação t de interesse (0,44) e sombreamos a área à esquerda dessa pontuação. Essa área sombreada representa a probabilidade que estamos procurando. Eu recomendo fortemente usar R para cálculos de distribuição t em vez de confiar em tabelas, pois elas podem ser desafiadoras e menos precisas. Em R, o comando correspondente ao CDF de uma distribuição t é pt, que requer dois argumentos: o valor t (0,44) e o número de graus de liberdade (26).
Vamos mudar para R e executar o comando pt: pt(0.44, 26). O resultado é de aproximadamente 0,668, indicando que a probabilidade de obter aleatoriamente um t-score menor ou igual a 0,44 nessa distribuição t é de cerca de 66,8%.
Agora, vamos passar para o problema dois. Queremos encontrar a probabilidade de t estar entre -0,8 e 0,5 em uma distribuição t com 19 graus de liberdade. Para resolver isso, calculamos a área à esquerda de t = 0,5 e subtraímos a área à esquerda de t = -0,8. Podemos conseguir isso usando dois comandos pt com uma subtração intermediária: pt(0,5, 19) - pt(-0,8, 19). O resultado é de aproximadamente 0,472, indicando que a probabilidade de obter aleatoriamente um t-score entre -0,8 e 0,5 em uma distribuição t com 19 graus de liberdade é de aproximadamente 47,2%.
Passando para o problema três, precisamos encontrar um valor (tau) na distribuição t com 50 graus de liberdade, tal que a probabilidade de obter um escore t menor ou igual a tau seja 0,3. Isso envolve um cálculo CDF inverso. Podemos usar a função qt em R, fornecendo a probabilidade (0,3) e o número de graus de liberdade (50). Vamos executar o comando qt: qt(0.3, 50). O resultado é aproximadamente -0,5277. É importante observar que obter um número negativo é razoável, pois o centro da curva do sino em qualquer distribuição t está em t = 0.
Lembre-se, esses cálculos podem ser feitos manualmente, mas R fornece funções convenientes (pt e qt) para simplificar o processo. A utilização dessas funções economiza tempo e garante precisão.
Intervalos de confiança em R
Intervalos de confiança em R
Olá a todos, hoje trabalharemos com intervalos de confiança em R, o que é particularmente útil quando temos um conjunto de dados real em vez de apenas estatísticas resumidas. Neste exemplo, veremos o conjunto de dados de CO2 e focaremos na variável "absorção".
Anteriormente, calculamos os intervalos de confiança usando a média amostral (barra x) e o desvio padrão amostral (s), mas agora aprenderemos um atalho usando o comando "t.test". Ao fornecer a variável de interesse, neste caso, "absorção" do conjunto de dados de CO2, o comando assumirá como padrão um nível de confiança de 95%.
O comando t-test fornece várias informações, algumas das quais se tornarão mais relevantes quando discutirmos o teste de hipótese posteriormente. Por enquanto, os principais detalhes a serem observados são o intervalo de confiança de 95% e a estimativa pontual. O intervalo de confiança representa o intervalo de valores dentro do qual podemos estimar a média da população. A estimativa pontual é a média da amostra, que serve como uma estimativa de valor único para a média da população.
A saída do teste t também inclui os graus de liberdade, que é um a menos que o tamanho da amostra. Outras informações, como valores-p e hipóteses alternativas, serão discutidas em vídeos futuros sobre testes de significância.
Embora a saída do teste t não forneça diretamente a margem de erro, podemos calculá-la manualmente. A margem de erro para um intervalo de confiança t segue a fórmula: T* * (s / sqrt(n)), onde s é o desvio padrão da amostra, n é o tamanho da amostra e T* é o valor t crítico para o nível de confiança desejado.
Para encontrar T*, usamos a função "qt" e especificamos a área à esquerda de T*. Para um intervalo de confiança de 95%, queremos 97,5% da área à esquerda de T*. Portanto, calculamos T* como "qt(0,975, 83)". Multiplicar T* pelo desvio padrão da amostra e dividi-lo pela raiz quadrada do tamanho da amostra produz a margem de erro.
Como alternativa, podemos usar a função "t.test" no R para calcular o intervalo de confiança automaticamente. Para alterar o nível de confiança, adicionamos o argumento "conf.level=" e especificamos a porcentagem desejada. Por exemplo, definir "conf.level = 90" nos dá um intervalo de confiança de 90%.
Quando diminuímos o nível de confiança, o intervalo de confiança resultante torna-se mais estreito. O limite superior do intervalo diminui, indicando um maior nível de precisão em nossa estimativa.
Em resumo, os intervalos de confiança fornecem uma faixa de valores dentro dos quais estimamos a média da população. R fornece funções convenientes como "t.test" e "qt" para simplificar os cálculos e obter resultados precisos.
Intervalos de confiança para proporções
Intervalos de confiança para proporções
Olá a todos, hoje estaremos construindo intervalos de confiança para proporções. Muitas vezes, nos deparamos com processos aleatórios com dois resultados possíveis, como cara ou coroa, sim ou não, ou verdadeiro e falso. Queremos tirar conclusões sobre as probabilidades desses resultados com base nos dados da amostra.
Para analisar esses resultados, atribuímos um resultado como sucesso e o codificamos como um, enquanto o outro resultado é uma falha e codificado como zero. É importante observar que os termos "sucesso" e "fracasso" são arbitrários e não implicam nenhum julgamento de valor sobre os resultados.
Codificando a variável dessa forma, criamos uma variável aleatória discreta, que chamaremos de X. X pode assumir dois valores, um e zero, com probabilidades p e (1 - p) respectivamente. Aqui, p representa a probabilidade de sucesso.
Para esse tipo de variável aleatória, podemos calcular informações resumidas. A média ou valor esperado é a soma de todos os valores possíveis da variável aleatória ponderados por suas respectivas probabilidades. Para uma tentativa de Bernoulli, a média é igual a p.
O desvio padrão de uma variável aleatória é a raiz quadrada da soma dos quadrados das diferenças entre os valores individuais e o valor esperado, cada um ponderado por suas probabilidades. Para uma tentativa de Bernoulli, o desvio padrão é dado pela raiz quadrada de (p * (1 - p)).
Agora, vamos considerar a execução de n ensaios de Bernoulli independentes e idênticos, onde p permanece constante entre os ensaios. A proporção de sucessos nessas tentativas é denotada como p-hat, que é igual a (1/n) * soma(xi), onde xi é um para sucesso e zero para falha. Em outras palavras, p-hat é a proporção de sucessos nas n tentativas.
Como p-hat é apenas uma média amostral, podemos aplicar nosso conhecimento sobre médias amostrais a ela. A média de p-hat é igual a p, a mesma que a média de uma tentativa individual de Bernoulli. O desvio padrão de p-hat é igual à raiz quadrada de ((p * (1 - p)) / n), que é o desvio padrão de uma única tentativa de Bernoulli dividido pela raiz quadrada de n. Pelo teorema do limite central, a distribuição amostral de p-hat é aproximadamente normal quando n é grande, tipicamente 30 ou mais.
Agora, vamos discutir os intervalos de confiança. No caso de uma média, a estrutura básica de um intervalo de confiança é mu = x-bar +/- z-star * sigma-sub-x-bar. Da mesma forma, para uma proporção, a fórmula do intervalo de confiança é p = p-hat +/- z-star * sqrt((p-hat * (1 - p-hat)) / n).
Na fórmula de proporção, p-hat representa a proporção experimental de sucessos em nossa amostra, enquanto p é a probabilidade geral de sucesso que estamos tentando estimar. A margem de erro diminui quando o p-hat está próximo de zero ou um, então é aconselhável não usar esse intervalo de confiança nesses casos.
Para determinar o tamanho amostral necessário para uma determinada margem de erro (e), usamos a fórmula n = (p-hat * (1 - p-hat) * z-star^2) / epsilon^2. Se não tivermos dados preliminares, podemos usar a estimativa mais conservadora, p-hat = 0,5, que fornece o maior tamanho de amostra possível. Nesse caso, a fórmula se torna n = (z-star^2) / (4 * epsilon^2).
Vamos considerar um exemplo. Suponha que queremos realizar uma pesquisa com 95% de confiança e a margem de erro não deve ser maior que 3%. Como não temos dados preliminares, usaremos a estimativa conservadora p-hat = 0,5. Inserindo os valores z-star = 1,96 e epsilon = 0,03 na fórmula, obtemos:
n = (1,96^2) / (4 * 0,03^2) ≈ 1067,1
Como o tamanho da amostra deve ser um número inteiro, arredondamos o valor para garantir que a margem de erro não exceda 3%. Portanto, precisaríamos de um tamanho de amostra de 1068 para esta pesquisa.
Em resumo, construir intervalos de confiança para proporções envolve atribuir valores de sucesso e falha, calcular médias e desvios padrão de amostra e usar as fórmulas apropriadas para determinar intervalos de confiança. É importante considerar as condições de uso desses intervalos e ajustar o tamanho da amostra com base na margem de erro desejada.
Intervalos de confiança para proporções: exemplos
Intervalos de confiança para proporções: exemplos
Hoje estaremos trabalhando em dois problemas de exemplo que envolvem a construção de intervalos de confiança para proporções. Vamos aos problemas:
Problema 1: Uma pesquisa com 275 adultos americanos selecionados aleatoriamente revela que 29 deles bebem café. Precisamos construir um intervalo de confiança de 90% para a proporção de todos os adultos americanos que bebem café.
Usando a fórmula para um intervalo de confiança para proporções: p = p̂ ± z √(p̂(1 - p̂)/n), onde p̂ é a proporção da amostra, n é o tamanho da amostra e z é o valor z crítico correspondente a o nível de confiança desejado.
Dado p̂ = 29/275 = 0,1055, n = 275 e z* = 1,645 (para um nível de confiança de 90%), podemos inserir estes valores:
p = 0,1055 ± 1,645 * √((0,1055 * (1 - 0,1055))/275)
Calculando essa expressão, descobrimos que o intervalo de confiança para a proporção de adultos americanos que bebem café é de aproximadamente 0,1055 ± 0,045. Assim, podemos estimar com 90% de confiança que a verdadeira proporção cai dentro do intervalo (0,0605, 0,1505).
Problema 2: Um pesquisador deseja estudar o consumo de chá na América e precisa determinar o tamanho da amostra necessária para garantir uma margem de erro não superior a 4%.
Usando a fórmula da margem de erro em um intervalo de confiança para proporções: e = z*√(p̂(1 - p̂)/n), podemos reorganizá-la para resolver o tamanho da amostra:
n = (z*^2 * p̂(1 - p̂)) / e^2.
Nesse caso, não temos dados preliminares, então usamos a estimativa mais conservadora para p̂, que é 0,5 (indicando a variabilidade máxima). Dado z* = 1,645 (para um nível de confiança de 90%) e e = 0,04, podemos substituir esses valores na fórmula:
n = (1,645^2 * 0,5(1 - 0,5)) / 0,04^2
Simplificando a expressão, descobrimos que o tamanho amostral mínimo necessário é de aproximadamente 257,03. Como o tamanho da amostra deve ser um número inteiro, arredondamos para garantir que a margem de erro desejada não seja excedida. Portanto, um tamanho de amostra de 258 é necessário para garantir uma margem de erro não superior a 4%.
Em resumo, a construção de intervalos de confiança para proporções envolve o uso de fórmulas que incorporam proporções de amostra, tamanhos de amostra e valores críticos. Aplicando essas fórmulas, podemos estimar as proporções populacionais dentro de um determinado nível de confiança e determinar o tamanho da amostra necessário para atingir a margem de erro desejada.
Introdução ao teste de hipóteses
Introdução ao teste de hipóteses
Olá a todos, na sessão de hoje, vamos mergulhar no teste de hipótese, também conhecido como teste de significância. Para entender melhor o conceito, trabalharemos juntos em um exemplo. Vamos começar.
Suponha que um fabricante de chocolate afirme que suas barras de chocolate pesam, em média, 350 gramas. No entanto, suspeito que sua afirmação seja exagerada e que o peso médio real de suas barras de chocolate seja inferior a 350 gramas. Para investigar isso, coleto uma amostra de 10 barras de chocolate e registro seus pesos. Se a média da amostra estiver abaixo de 350 gramas, ela fornecerá evidências contra a alegação da empresa. Se for igual ou superior a 350 gramas, não contestará a afirmação.
Vamos supor que minha amostra tenha um peso médio de 347 gramas, que está abaixo de 350 gramas. Consequentemente, este resultado apóia minha suspeita e contesta a afirmação da empresa. No entanto, a empresa poderia argumentar que minha amostra pode ter sido aleatoriamente leve e, se eu coletasse outra amostra, ela poderia render exatamente 350 gramas ou até mais devido ao acaso. Portanto, preciso de um método para tomar uma decisão entre essas duas possibilidades: a empresa mentir ou o resultado ser devido ao acaso.
Em tal situação, o melhor que podemos fazer é fazer uma declaração de probabilidade em relação à reivindicação da empresa. Queremos determinar a probabilidade de, se a empresa estiver falando a verdade, obtermos uma média amostral tão baixa quanto a que observamos puramente por acaso. Uma probabilidade menor indica evidências mais fortes contra a alegação da empresa.
Para proceder matematicamente, vamos assumir a hipótese nula, denotada como H0, que se alinha com a afirmação da empresa. Nesse caso, a hipótese nula afirma que a média populacional de todas as barras de chocolate é exatamente 350 gramas. Por outro lado, temos a hipótese alternativa, denotada como Ha, que representa o que pretendemos estabelecer. Nesse caso, Ha afirma que o peso médio de todas as barras de chocolate é inferior a 350 gramas (Ha: μ < 350).
É importante observar que tanto H0 quanto Ha referem-se a parâmetros populacionais, não à média amostral (x-barra). Ainda não mencionamos x-bar porque vamos usá-lo para tomar uma decisão entre H0 e Ha.
Para calcular a probabilidade, precisamos considerar a distribuição amostral de x-bar. Assumimos que a hipótese nula é verdadeira e prevemos a obtenção de amostras múltiplas de tamanho 10. Como é a distribuição da barra x? Embora as barras de chocolate individuais possam variar em peso, o peso médio (x-barra) irá, em média, alinhar-se com a média da população (μ).
O teorema do limite central nos ajuda ainda mais a entender a distribuição amostral. Para um tamanho de amostra suficientemente grande (geralmente n > 30), a distribuição amostral de x-bar se aproxima de uma distribuição normal com média μ e desvio padrão σ/√n. Se a própria distribuição da população for normal, a aproximação é exata e a distribuição da barra x é precisamente normal.
Imagine a curva azul representando barras de chocolate individuais, onde há um peso médio de 350 gramas sob a hipótese nula. Algumas barras podem ser ligeiramente mais pesadas ou mais leves, e algumas podem se desviar significativamente. Agora visualize a curva verde, que representa a distribuição amostral da barra x. Em média, x-bar será de 350 gramas se a hipótese nula for verdadeira, com alguma pequena variação. No entanto, a variabilidade na barra x será menor em comparação com as barras individuais porque os pesos extremos tendem a se equilibrar em uma amostra.
Vamos supor que conheçamos o desvio padrão das barras de chocolate, que é de 4 gramas. Embora esse não seja um valor que normalmente conhecemos, abordaremos isso em vídeos futuros. Com a hipótese nula de μ = 350 gramas e o teorema do limite central, temos todas as informações necessárias sobre a distribuição amostral de x-bar. Seguirá uma distribuição normal com média de 350 gramas e desvio padrão de 4 gramas dividido pela raiz quadrada de 10 (já que o tamanho da amostra é 10), que é aproximadamente 1,26 gramas.
Para calcular a probabilidade de obter uma média amostral (barra x) menor ou igual a 347 gramas puramente por acaso, podemos calcular um escore z. A probabilidade de que a barra x seja menor ou igual a 347 gramas é igual à probabilidade de que a pontuação z correspondente seja menor ou igual a (347 - 350) / 1,26, o que simplifica para -2,37.
Usando um software estatístico ou uma tabela, descobrimos que a probabilidade de uma distribuição normal padrão ser menor ou igual a -2,37 é de aproximadamente 0,0089. Essa probabilidade é chamada de valor-p.
Agora, vamos discutir a interpretação do valor-p. Nesse caso, o valor-p de 0,0089 é relativamente pequeno. O valor p representa a probabilidade de obter uma média amostral de 347 gramas ou menos se a hipótese nula (μ = 350 gramas) for verdadeira. Um pequeno valor de p sugere que é improvável observar uma média amostral tão baixa se a hipótese nula for verdadeira.
Há duas possibilidades a serem consideradas: primeiro, é possível que a hipótese nula seja verdadeira e observamos um evento raro (média da amostra de 347 gramas ou menos) por acaso, que ocorre aproximadamente 0,0089 das vezes. Em segundo lugar, é possível que a hipótese nula seja falsa (como inicialmente suspeitávamos) e a hipótese alternativa (μ < 350 gramas) seja verdadeira.
Como o valor-p de 0,0089 é bastante baixo, a primeira possibilidade parece improvável. Portanto, rejeitamos a hipótese nula (H0: μ = 350 gramas) e apoiamos a hipótese alternativa (Ha: μ < 350 gramas). Isso nos leva a concluir que há fortes evidências que sugerem que o peso médio populacional das barras de chocolate produzidas por essa empresa é de fato inferior a 350 gramas.
Para encerrar, abordamos as etapas básicas da condução de um teste de hipótese. No entanto, existem questões adicionais que ainda não abordamos, como determinar o limite para um valor-p pequeno o suficiente, considerar hipóteses alternativas e lidar com situações em que os parâmetros populacionais são desconhecidos. Em vídeos futuros, exploraremos essas questões e forneceremos mais informações sobre o teste de hipóteses.
Significado estatístico
Significado estatístico
Bom dia a todos! Hoje, vamos nos aprofundar no conceito de teste de hipótese e discutir a ideia de significância estatística. Os testes de hipóteses vêm em várias formas, sendo os mais comuns o teste z e o teste t para médias populacionais. No entanto, a lógica fundamental permanece a mesma.
Primeiro, assumimos que a hipótese nula é verdadeira. Em seguida, reunimos uma amostra de dados e calculamos a probabilidade de obter uma amostra semelhante puramente por acaso, assumindo que a hipótese nula está correta. Essa probabilidade é conhecida como valor-p do teste. Um valor p mais baixo indica evidência mais forte contra a hipótese nula.
No entanto, na maioria dos casos, simplesmente comparar os valores-p pode não ser suficiente para tomar uma decisão definitiva. Assim, muitas vezes é útil estabelecer um valor-p de corte predeterminado, conhecido como nível de significância alfa, antes de realizar o teste de hipótese. Normalmente, o alfa é definido em 0,05, embora possa variar.
Quando rejeitamos a hipótese nula com base em um valor de p menor que alfa, consideramos os resultados estatisticamente significativos. Em outras palavras, a evidência apóia a hipótese alternativa. Agora, vamos explorar alguns exemplos para ilustrar esses conceitos.
Exemplo 1: Um fabricante de chocolate afirma que o peso médio de suas barras de chocolate é de 350 gramas. No entanto, suspeitamos que o verdadeiro peso médio seja menor. Montamos um teste de significância afirmando uma hipótese nula de que a afirmação da empresa é verdadeira e uma hipótese alternativa de que o peso médio é inferior a 350 gramas. Decidimos antecipadamente usar um nível de significância de alfa igual a 0,05.
Depois de coletar uma amostra de tamanho 10 e calcular uma média amostral de 347 gramas, determinamos a probabilidade de obter resultados tão extremos quanto esse, assumindo que a hipótese nula é verdadeira. Isso resulta em um valor-p de 0,0089. Como esse valor-p é menor que 0,05, rejeitamos a hipótese nula e concluímos que o peso médio das barras de chocolate da empresa é de fato menor que 350 gramas.
Exemplo 2: Pesquisadores médicos conduzem um estudo para testar a eficácia de um novo medicamento para perda de peso. Eles escolhem um nível de significância de alfa igual a 0,01. A hipótese nula afirma que a perda de peso média em comparação com um placebo é zero, enquanto a hipótese alternativa sugere uma perda de peso média positiva. Depois de analisar os dados, eles obtêm um valor p de 0,045. Como o valor p é maior que o nível de significância escolhido de 0,01, eles não podem rejeitar a hipótese nula. Portanto, não há evidências suficientes para concluir que o tratamento é superior ao placebo, em média.
É importante notar que a conclusão poderia ter sido diferente se eles tivessem escolhido um nível de significância alfa igual a 0,05. Isso destaca uma armadilha potencial do teste de significância e o uso de limites alfa. Confiar cegamente em testes de hipóteses para a tomada de decisões pode ser arriscado. Sempre relate o valor-p juntamente com qualquer decisão tomada com base no nível de significância alfa. Além disso, seja cauteloso ao interpretar os valores-p e considere vários fatores, conforme discutirei no próximo vídeo.
Teste de hipótese: alternativas unilaterais e bilaterais
Teste de hipótese: alternativas unilaterais e bilaterais
Na discussão de hoje, vamos nos aprofundar no conceito de teste de hipótese, focando especificamente em hipóteses alternativas unilaterais e bilaterais. Vamos começar revisitando a estrutura fundamental de um teste de hipótese para a média.
O primeiro passo é identificar a hipótese nula, denotada como H₀. Esta afirmação refere-se à média da população e representa a alegação contra a qual pretendemos reunir evidências. Em seguida, estabelecemos uma hipótese alternativa, denotada como Hₐ, que contradiz a hipótese nula e normalmente representa a hipótese que buscamos estabelecer. A noção por trás desse processo é que, ao acumular evidências contra a hipótese nula, indiretamente acumulamos evidências a favor da hipótese alternativa.
Posteriormente, coletamos dados e calculamos uma média amostral, denotada como x̄. A partir daí, determinamos a probabilidade (p-valor) de obter uma média amostral tão extrema quanto a que observamos, assumindo a hipótese nula como verdadeira. O valor p significa a força da evidência contra a hipótese nula, com valores mais baixos indicando evidência mais forte a favor da hipótese alternativa. Frequentemente, concluímos o teste de hipótese comparando o valor-p com um ponto de corte pré-determinado, conhecido como alfa, que denota o nível de significância do teste. Se o valor-p for menor que alfa, rejeitamos a hipótese nula. É fundamental observar que o nível de significância alfa deve ser escolhido antes da coleta de dados.
Agora, vamos explorar hipóteses alternativas com mais detalhes. Na discussão anterior, afirmamos que a hipótese alternativa é escolhida para contradizer a hipótese nula. Mesmo para uma hipótese nula simples de mu igual a mu₀, onde mu₀ representa um valor hipotético, existem três possíveis hipóteses alternativas:
As duas primeiras hipóteses alternativas são referidas como alternativas unilaterais devido ao seu foco em uma direção específica, enquanto a terceira alternativa é conhecida como hipótese alternativa bilateral. Cada uma dessas alternativas contradiz a hipótese nula de maneiras ligeiramente diferentes.
Ao conduzir um teste de hipótese para a média, a escolha entre essas opções depende de considerações do mundo real. Como diretriz geral, é aconselhável selecionar a hipótese alternativa bilateral, a menos que haja uma razão específica, fundamentada em fatores do mundo real, para assumir que a média da população não pode ou não deve ser maior ou menor do que o valor fornecido pela hipótese nula, mu₀.
Para melhorar nosso entendimento, vamos prosseguir com alguns exemplos. O primeiro exemplo envolve uma empresa de doces que afirma que o peso médio de suas barras de chocolate é de 350 gramas. Se suspeitarmos que o peso médio é realmente menor, a hipótese nula seria a alegação da empresa, enquanto a hipótese alternativa seria mu < 350 gramas. Neste caso, estamos preocupados apenas com a possibilidade do peso médio das barras de chocolate ser inferior a 350 gramas.
No segundo exemplo, um manual de ensino afirma que um determinado exercício leva em média 30 minutos. A hipótese nula seria a afirmação do manual, mu = 30, e a hipótese alternativa seria mu ≠ 30. Aqui, não temos nenhuma razão justificável para excluir ou desconsiderar a possibilidade de que mu seja menor ou maior que 30.
No terceiro exemplo, uma empresa de troca de óleo afirma que, em média, completa uma troca de óleo em 15 minutos. Suponha que suspeitemos que o tempo real seja maior.
Se o valor p for menor ou igual ao nível de significância (alfa), rejeitamos a hipótese nula. Isso significa que os dados fornecem fortes evidências contra a hipótese nula e apóiam a hipótese alternativa. Por outro lado, se o valor-p for maior que o nível de significância, falhamos em rejeitar a hipótese nula. Nesse caso, os dados não fornecem evidências suficientes para rejeitar a hipótese nula e não temos suporte suficiente para a hipótese alternativa.
É importante observar que deixar de rejeitar a hipótese nula não significa necessariamente que a hipótese nula seja verdadeira. Significa simplesmente que os dados não fornecem evidências significativas para apoiar a hipótese alternativa. A ausência de evidências contra a hipótese nula não prova sua veracidade.
A escolha entre uma hipótese alternativa unilateral ou bilateral depende da questão de pesquisa específica e das hipóteses que você deseja abordar. Se você estiver interessado em determinar se a média da população é significativamente diferente de um valor específico, você deve escolher uma hipótese alternativa bilateral. Isso permite que você considere ambas as possibilidades de a média ser maior ou menor que o valor hipotético.
No entanto, se você tiver um motivo específico para acreditar que a média só pode ser maior ou menor que o valor hipotético, poderá escolher uma hipótese alternativa unilateral. Isso restringe o foco do teste a apenas uma direção de desvio da hipótese nula.
Em resumo, o teste de hipótese envolve a formulação de uma hipótese nula, que representa a afirmação contra a qual você deseja reunir evidências, e uma hipótese alternativa, que contradiz a hipótese nula. Os dados são coletados e uma estatística de teste é calculada, como a média da amostra. O p-valor é então calculado, representando a probabilidade de se obter uma estatística de teste tão extrema quanto a observada, assumindo que a hipótese nula é verdadeira. A escolha de uma hipótese alternativa unilateral ou bilateral depende da questão de pesquisa e das suposições específicas sobre o parâmetro da população. Por fim, o valor-p é comparado ao nível de significância e é tomada a decisão de rejeitar ou não a hipótese nula com base nas evidências fornecidas pelos dados.