Tutoriais de programação - página 16

 

Teste de hipótese: exemplo


Teste de hipótese: exemplo

Hoje, veremos um exemplo de teste de hipótese para a média. Antes de mergulhar no exemplo específico, vamos revisar o procedimento geral. Sempre começa com a criação de hipóteses, incluindo a hipótese nula, que representa a ideia contra a qual queremos reunir evidências, e a hipótese alternativa, que buscamos apoiar. Supondo que a hipótese nula seja verdadeira, examinamos onde nossa média amostral (barra X) se enquadra entre todas as médias amostrais possíveis sob essa suposição.

Para fazer isso, calculamos um z-score, que mede o desvio de nosso resultado dentro do contexto da hipótese nula. Para uma hipótese alternativa unilateral testando se a média da população (μ) é menor ou maior que um valor específico, calculamos a probabilidade de obter um escore z menor ou igual ao que obtivemos. Para uma hipótese alternativa bilateral, calculamos qualquer probabilidade e depois a duplicamos apropriadamente.

Na representação mais formal, encontramos a probabilidade de obter um escore z menor ou igual ao valor absoluto negativo de nosso escore z obtido. Ao usar a função de distribuição cumulativa, contabilizamos as caudas esquerda e direita. Uma vez que temos o valor-p, nós o comparamos com o nível de significância escolhido (alfa). Se o valor-p for menor que alfa, rejeitamos a hipótese nula e concluímos que a hipótese alternativa é suportada.

Agora vamos aplicar isso a um exemplo real. Um grupo de defesa do consumidor testa o conteúdo de vitamina C de um suplemento orgânico, que afirma ter uma média de 1.000 miligramas de vitamina C por comprimido. Com um tamanho de amostra de 32, eles encontraram uma média amostral de 1.008,9 miligramas. O desvio padrão da população (σ) é dado como 21 miligramas. Nossa tarefa é determinar se há evidências suficientes para rejeitar a alegação do produto. O nível de significância (alfa) é fixado em 0,05.

Seguindo o procedimento geral, começamos por estabelecer as hipóteses. A hipótese nula é que a alegação do produto de um teor médio de vitamina C de 1.000 miligramas é verdadeira, enquanto a hipótese alternativa é que a verdadeira média difere de 1.000 miligramas. Como não há indicação específica para considerar apenas valores menores ou maiores que 1000, optamos por uma hipótese alternativa bilateral.

Em seguida, calculamos o escore z usando a fórmula (média amostral - valor esperado) / (desvio padrão da média amostral). Assumindo a hipótese nula, usamos um valor médio de 1000 miligramas e calculamos o desvio padrão da média da amostra como σ / √n, onde n é o tamanho da amostra. Consequentemente, o escore z é de 2,39, indicando que nossa média amostral de 1.008,9 miligramas se desvia 2,39 desvios padrão da média esperada sob a hipótese nula.

Para determinar o valor p, precisamos encontrar a probabilidade de obter um escore z tão extremo quanto o que temos (positivo ou negativo). Nesse caso, calculamos P(Z ≤ -2,39), que resulta em 0,0084. Como este é um teste bilateral, dobramos a probabilidade de obter 0,0168.

Comparando o valor-p com o nível de significância, descobrimos que 0,0168 é realmente menor que 0,05. Portanto, temos evidências suficientes para rejeitar a hipótese nula e concluir que o suplemento não contém em média 1000 miligramas de vitamina C.

Hypothesis Testing: Example
Hypothesis Testing: Example
  • 2020.03.25
  • www.youtube.com
Another example of a two-sided hypothesis test for the mean when the population standard deviation is known. If this vid helps you, please help me a tiny bit...
 

Erros tipo I e tipo II em testes de significância


Erros tipo I e tipo II em testes de significância

Hoje, discutiremos situações em que o teste de significância não sai como planejado. Vamos cobrir tudo em apenas três minutos. Vamos começar.

No teste de hipótese, encontramos dois estados possíveis para H nada (a hipótese nula): pode ser verdadeiro ou falso. Ao final do teste, temos duas decisões potenciais: rejeitar H nada ou não rejeitá-lo. Isso nos dá um total de quatro resultados possíveis. Podemos examinar as combinações dessas duas decisões. Tenho uma tabela que resume esses resultados, e dois deles nos dão satisfação: rejeitar H nada quando é falso e não rejeitar H nada quando é verdadeiro. No entanto, existem duas situações que não são desejáveis.

À medida que nos aprofundamos neste tópico, é importante observar que geralmente não temos informações prévias sobre se H nada é verdadeiro ou falso no início. Se obtivermos tais informações, elas normalmente chegarão muito depois. Agora, vamos discutir os dois resultados desfavoráveis. O primeiro é chamado de erro tipo 1 ou falso positivo. Isso ocorre quando rejeitamos a hipótese nula apesar de ser verdadeira. Acontece quando ocorre um evento aleatório e o interpretamos erroneamente como significativo. A segunda situação é um erro tipo 2 ou falso negativo. Isso ocorre quando deixamos de rejeitar a hipótese nula, mesmo que ela seja falsa. Nesse caso, algo significativo está acontecendo, mas nosso teste falha em detectá-lo.

Os termos "falso positivo" e "falso negativo" são originários de testes médicos, onde a estrutura lógica é semelhante ao teste de significância. Em exames médicos, você pode estar testando uma doença e o teste pode indicar sua presença ou ausência. Os erros gerais de Tipo 1 e Tipo 2 são resumidos na tabela fornecida, destacando os resultados desejados com marcas de seleção.

Vamos passar rapidamente por alguns exemplos. Suponha que um fabricante de barras de chocolate afirme que, em média, suas barras pesam 350 gramas. Suspeito que eles possam estar superestimando, então reúno uma amostra e rejeito sua afirmação com um valor-p de 0,0089. No entanto, se a afirmação do fabricante fosse realmente verdadeira e suas barras tivessem um peso médio de 350 gramas, eu teria cometido um erro tipo 1 ou falso positivo.

Aqui está outro exemplo: um restaurante afirma que o teor médio de sódio de um de seus sanduíches é de 920 miligramas. Analiso uma amostra, mas encontro evidências insuficientes para rejeitar a afirmação com um nível alfa de 0,01. Se a alegação do restaurante fosse falsa, digamos que o teor médio de sódio fosse na verdade 950 miligramas, eu teria cometido um erro tipo 2 ao não rejeitar a alegação.

Type I and Type II Errors in Significance Tests
Type I and Type II Errors in Significance Tests
  • 2020.03.28
  • www.youtube.com
When hypothesis testing goes wrong, explained in under three minutes.
 

Teste de hipótese usando regiões críticas


Teste de hipótese usando regiões críticas

Olá a todos, hoje vamos discutir o teste de hipótese usando regiões críticas. Embora essa abordagem possa ser considerada antiquada, ainda é relevante na teoria que abordaremos. Portanto, é benéfico ter uma compreensão básica do mesmo.

No passado, computar valores-p era mais desafiador do que é hoje. Envolvia depender de tabelas para cálculos, como as da distribuição normal, que tinham precisão limitada e entradas finitas. Para minimizar a necessidade desses cálculos, o conceito de regiões críticas ou regiões de rejeição foi comumente utilizado.

O processo típico de teste de hipótese hoje envolve calcular um valor-p com base em dados de amostra e compará-lo com o nível de significância escolhido (alfa). No entanto, com regiões críticas, invertemos esse processo. Começamos selecionando um nível de significância (alfa), que então define um valor de corte para a estatística de teste, denotado como Z-star ou T-star. Se os dados amostrais produzirem uma estatística amostral mais extrema do que esse valor de corte, isso nos leva a rejeitar a hipótese nula.

Vamos considerar um exemplo para ilustrar isso. Suponha que temos uma hipótese alternativa bilateral e estamos conduzindo um teste com uma distribuição normal e um nível de significância de alfa igual a 0,05. Nesse caso, alfa igual a 0,05 corresponde a uma área sombreada de 0,05 na distribuição (0,025 de cada lado). Ao realizar um cálculo normal inverso (usando o comando Q norm em R), descobrimos que o valor crítico Z-star é 1,96. Portanto, se a estatística da amostra (Z-star) for maior que 1,96 (valor absoluto), isso indica que devemos rejeitar a hipótese nula.

Para outro exemplo, vamos considerar uma distribuição t com 8 graus de liberdade e uma alternativa unilateral (alternativa do lado direito). Suponha que escolhemos alfa igual a 0,01 como o nível de significância. Neste caso, há uma área de 0,01 à direita da estrela T, correspondente a uma área de 0,99 à esquerda. Usando um t CDF inverso (usando o comando QT) com os valores 0,99 e 8 em R, descobrimos que T-star é aproximadamente 2,9. Se a estatística t da amostra for maior que 2,9, ela cai na região sombreada, levando-nos a rejeitar a hipótese nula.

No caso da distribuição normal, podemos traduzir o valor Z crítico em uma afirmação sobre uma média amostral crítica. Considere o seguinte exemplo: O conteúdo das latas de uma determinada marca de refrigerante é normalmente distribuído com um desvio padrão de 0,2 onças. Desejamos usar uma amostra de tamanho 15 para testar a hipótese nula de que o conteúdo médio das latas é de 12 onças contra uma hipótese alternativa de que na verdade são menos de 12 onças. Com uma alternativa unilateral e alfa igual a 0,05, o valor Z crítico é -1,645. Assim, se a média amostral (barra X) estiver mais de 1,645 desvios padrão abaixo da média, devemos rejeitar a hipótese nula. Especificamente, se a média da amostra for inferior a 11,92 onças, rejeitaríamos a hipótese nula.

Hypothesis testing using critical regions
Hypothesis testing using critical regions
  • 2020.03.29
  • www.youtube.com
A formerly very practical idea, now mostly of theoretical interest. If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more ...
 

Teste de significância com a distribuição t: Exemplo


Teste de significância com a distribuição t: Exemplo

Olá a todos, hoje gostaria de orientá-los em outro exemplo de teste de hipótese usando a distribuição t. Este exemplo enfoca as taxas de absorção de carbono em uma espécie de grama específica. A sabedoria convencional sugere que a taxa média de captação é de 34,0 micromoles por metro quadrado por segundo. No entanto, um grupo de pesquisadores tem suas dúvidas. Eles conduziram um estudo e obtiveram uma média amostral de 30,6 com um desvio padrão amostral de 9,7. Agora, em um nível de significância de 0,05, eles querem determinar se esses dados fornecem fortes evidências contra a sabedoria convencional.

Como em qualquer teste de significância, vamos começar declarando nossas hipóteses explicitamente. A hipótese nula, que pretendemos desafiar, assume que nossos dados de amostra são meramente resultado do acaso, e a sabedoria convencional é verdadeira. Por outro lado, a hipótese alternativa busca estabelecer a possibilidade de que a verdadeira taxa média de absorção seja maior ou menor que 34,0. Nesse caso, consideraremos uma hipótese alternativa bilateral para abranger os dois cenários.

Em seguida, queremos avaliar o quão extrema nossa média amostral (x-barra) é comparada ao que esperaríamos sob a hipótese nula. Calculamos a estatística de teste (T) subtraindo a média esperada sob a hipótese nula (mu-nada) da média da amostra e dividindo-a pelo desvio padrão da amostra (s) dividido pela raiz quadrada do tamanho da amostra (n). Este cálculo produz T = -2,27.

Para determinar a probabilidade de obter uma estatística de teste tão extrema quanto -2,27 devido apenas ao acaso, precisamos considerar ambos os lados da distribuição. Calculamos a área sombreada combinada à esquerda e à direita de -2,27, o que nos dá o valor-p do teste. Em R, podemos usar o comando PT para calcular a área mais à esquerda, que representa a probabilidade de T ser menor que -2,27. Em seguida, dobramos essa área para contabilizar os dois lados da distribuição.

Depois de aplicar o comando PT em R com -2,27 e graus de liberdade (df) igual ao tamanho da amostra menos um (41), descobrimos que a área sombreada à esquerda é 0,029. A duplicação desse valor nos dá a área sombreada total, que corresponde ao valor-p do teste.

O valor-p calculado é 0,029, que é menor do que nosso nível de significância (alfa) de 0,05. Portanto, rejeitamos a hipótese nula e concluímos que a taxa média de absorção de dióxido de carbono nesta espécie de grama não é realmente 34,0 micromoles por metro quadrado por segundo.

Em conclusão, o teste de hipótese usando a distribuição t nos permite avaliar a força da evidência contra a hipótese nula quando o desvio padrão da população é desconhecido. Calculando a estatística de teste, comparando-a com o valor crítico (nível de significância) e calculando o valor-p, podemos tomar decisões informadas sobre a validade da hipótese nula.

Significance Testing with the t-Distribution: Example
Significance Testing with the t-Distribution: Example
  • 2020.04.07
  • www.youtube.com
A two-sided test with unknown population standard deviation. If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more stats j...
 

Teste de hipótese com a distribuição t


Teste de hipótese com a distribuição t

Olá a todos, hoje vamos discutir o teste de hipótese usando a distribuição t. Neste cenário, estamos lidando com situações onde o desvio padrão da população é desconhecido. Anteriormente, realizávamos testes de hipóteses usando estatísticas Z, assumindo que conhecíamos o desvio padrão da população (Sigma). No entanto, na inferência estatística, o objetivo é usar as informações da amostra para obter insights sobre a população, por isso é comum não conhecer o Sigma. Nesses casos, estimamos o desvio padrão da população usando o(s) desvio(s) padrão da amostra e procedemos a cálculos semelhantes.

O desafio surge porque, quando Sigma é substituído por s, a expressão (X-bar - mu)/(s/sqrt(n)) não segue mais uma distribuição normal. Tanto a barra X quanto s variam a cada nova amostra, fazendo com que a distribuição siga uma distribuição t com (n-1) graus de liberdade. Felizmente, uma vez que consideramos esse ajuste, os cálculos permanecem basicamente os mesmos.

Para realizar um teste de hipótese quando Sigma é desconhecido, começamos com as hipóteses nula e alternativa. Supondo que a hipótese nula seja verdadeira, calculamos a estatística t para os dados de amostra reais: (X-bar - mu_naught)/(s/sqrt(n)). Em seguida, calculamos os valores de p com base na hipótese alternativa.

Para uma hipótese alternativa do lado esquerdo, onde suspeitamos que mu é menor que um determinado valor, encontramos a probabilidade de obter um valor t menor ou igual ao que obtivemos quando a hipótese nula é verdadeira. Isso corresponde à área sombreada na primeira foto.

Da mesma forma, para uma hipótese alternativa do lado direito, onde mu é maior que um determinado valor, determinamos a probabilidade de obter um valor t maior que o obtido. Isso corresponde à área à direita do valor t.

No caso de um teste bilateral, consideramos ambas as áreas. Calculamos a probabilidade de obter um valor t maior (em valor absoluto) do que obtivemos e depois o dobramos.

Uma vez que temos o valor-p, nós o comparamos com o nível de significância escolhido (alfa) para tomar uma decisão. Se o valor-p for menor que alfa, rejeitamos a hipótese nula. No entanto, ao realizar cálculos manualmente, obter o valor t dos dados de amostra pode ser complicado. Recomenda-se o uso de tecnologia, como software estatístico ou calculadoras. Em R, por exemplo, o comando PT(t, n-1) calcula a área à esquerda de um determinado valor t em uma distribuição t com (n-1) graus de liberdade.

Vamos considerar um exemplo para demonstrar esse processo. Suponha que tenhamos a perda de peso de sete camundongos durante um experimento. Queremos determinar se há evidências suficientes para concluir que os camundongos perdem peso durante o experimento, com um nível de significância alfa igual a 0,05. Como não temos o desvio padrão da população, estamos lidando com uma situação de teste t.

Para iniciar o teste, definimos a hipótese nula, assumindo que os dados são devidos ao acaso, e a hipótese alternativa, que afirma que os camundongos perdem peso em média durante o experimento. Neste caso, escolhemos uma hipótese alternativa unilateral, focando na perda de peso ao invés do ganho de peso.

Em seguida, calculamos a estatística t usando a média amostral e o desvio padrão amostral. Com o valor-t obtido, calculamos o valor-p, que representa a probabilidade de se obter um valor-t maior ou igual ao valor observado apenas pelo acaso.

Para avaliar essa probabilidade, nos referimos a uma distribuição t com (n-1) graus de liberdade. Calculamos a área à direita do valor t subtraindo a área à esquerda de 1. Em R, isso pode ser feito usando a função PT. Se o valor p for maior que o nível de significância escolhido (alfa), falhamos em rejeitar a hipótese nula.

Em nosso exemplo, o valor-p calculado é 0,059. Como 0,059 é maior que o nível de significância de 0,05, não temos evidências suficientes para rejeitar a hipótese nula. Portanto, não podemos concluir que o experimento faz com que os camundongos percam peso em média.

É importante observar que deixar de rejeitar a hipótese nula não significa que a hipótese nula seja verdadeira. Significa simplesmente que a evidência não é forte o suficiente para apoiar a hipótese alternativa.

Em resumo, ao lidar com testes de hipóteses e o desvio padrão da população é desconhecido, podemos usar a distribuição t e estimar o desvio padrão usando o desvio padrão da amostra. Em seguida, calculamos a estatística t, calculamos o valor p com base na hipótese alternativa e comparamos com o nível de significância para tomar uma decisão. A utilização de software ou tabelas estatísticas pode simplificar os cálculos e fornecer resultados mais precisos.

Hypothesis Testing with the t-Distribution
Hypothesis Testing with the t-Distribution
  • 2020.04.04
  • www.youtube.com
How can we run a significance test when the population standard deviation is unknown? Simple: use the sample standard deviation as an estimate. If this vid h...
 

Teste de hipóteses em R


Teste de hipóteses em R

Olá pessoal! Hoje, conduziremos testes de hipóteses em R usando o comando t.test. Trabalharemos em alguns problemas relacionados ao conjunto de dados de qualidade do ar integrado, que consideraremos como uma amostra aleatória simples de medições de qualidade do ar da cidade de Nova York.

Vamos mudar para o R, onde já carreguei o pacote dorindyverse, o que costumo fazer no início das minhas sessões de R. Eu também peguei o arquivo de ajuda para o conjunto de dados de qualidade do ar. Este conjunto de dados foi coletado em 1973, então não são os dados mais recentes. Podemos usar o comando view para dar uma olhada no conjunto de dados. Consiste em 153 observações em seis variáveis, incluindo vento e radiação solar, as duas variáveis que nos interessam.

Antes de realizar qualquer teste estatístico, é uma boa prática visualizar os dados. Então vamos criar um histograma usando o comando qplot. Vamos nos concentrar na variável vento e especificar que queremos um histograma.

Agora vamos passar para o problema um. Um funcionário afirma que a velocidade média do vento na cidade é de nove milhas por hora. Queremos determinar se essa afirmação é plausível com base nos dados. Usaremos um teste t com a hipótese nula de que a velocidade média do vento é de nove milhas por hora. Olhando para o histograma, parece plausível, embora ligeiramente centrado à direita desse valor. Faremos o teste t usando o comando t.test. Passamos a variável vento para ele e especificamos a hipótese nula como mu = 9. Por padrão, R assume uma hipótese alternativa bilateral. O comando t.test nos fornece a média amostral, a estatística t e o valor p. A média da amostra é 9,96 e a estatística t calculada é 3,36, que corresponde a um valor p inferior a 0,1. Com um valor-p tão pequeno, não é plausível que esses dados se desviem significativamente da hipótese nula devido apenas ao acaso. Portanto, rejeitamos a hipótese nula e concluímos que a velocidade média do vento em Nova York não é nove milhas por hora.

Passando para o problema dois, queremos avaliar se um determinado painel solar seria rentável se a radiação solar média for superior a 175 langley's. Usaremos uma hipótese alternativa unilateral, onde a hipótese nula é que a radiação solar média é de 175 langley's, e a hipótese alternativa é que é maior. Vamos visualizar os dados criando um histograma da variável radiação solar. Novamente, a hipótese nula parece plausível com base no histograma. Faremos o teste t usando o comando t.test, passando a variável de radiação solar e especificando a hipótese nula como mu = 175. Além disso, precisamos indicar a hipótese alternativa unilateral usando o argumento alternativo = "maior" . O comando t.test nos fornece a média amostral, a estatística t e o valor p. A média da amostra é 185,9 e a estatística t calculada é 1,47, resultando em um valor p de 0,07. Com um valor-p de 0,07, não temos evidências convincentes para apoiar a afirmação de que a radiação solar média em Nova York é superior a 175 langley's, que é o limite para justificar a compra do painel solar. Portanto, devemos abster-nos de tirar conclusões e mais estudos são necessários para avaliar a radiação solar média com precisão.

Em resumo, o teste de hipótese usando o teste t nos permite avaliar a plausibilidade de afirmações ou hipóteses com base em dados de amostra. Ao especificar as hipóteses nula e alternativa, realizando o teste e examinando o valor p resultante, podemos tomar decisões informadas sobre aceitar ou rejeitar hipóteses. A visualização dos dados por meio de histogramas ou outros gráficos pode fornecer informações adicionais durante a análise.

Hypothesis testing in R
Hypothesis testing in R
  • 2022.03.30
  • www.youtube.com
Hypothesis testing in R is easy with the t.test command!If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more #rstats joy,...
 

Teste de hipótese para proporções


Teste de hipótese para proporções

Olá pessoal! Hoje, continuaremos nossa exploração de testes de hipóteses, desta vez focando em proporções. Abordaremos esse tópico examinando um exemplo para entender os principais conceitos envolvidos.

Vamos mergulhar de cabeça. Um comentarista afirma que 30% das crianças de seis anos nos Estados Unidos têm deficiência de zinco. Queremos avaliar essa afirmação coletando uma amostra e conduzindo um teste de hipótese em um nível de significância de α = 0,05. Para investigar mais, coletamos dados pesquisando 36 crianças de seis anos e descobrimos que 5 delas têm deficiências de zinco, o que é inferior a 30%. No entanto, precisamos determinar se essa diferença pode ser atribuída apenas ao acaso. Nossa principal questão é: quão improvável é obter uma amostra como esta?

Para responder a esta questão, comparamos a proporção da amostra (P-hat) que obtivemos (5 de 36) com a proporção reivindicada sob a hipótese nula. Vamos denotar a proporção da população como P₀ ou P-nada. Nossa hipótese nula assume que a proporção da população é de 0,30 (30%). A hipótese alternativa, neste caso, é simplesmente que a proporção populacional não é igual a 0,30. Não temos um motivo específico para supor que seja maior ou menor que 30%, então consideramos as duas possibilidades. Por padrão, optamos por uma alternativa bilateral, a menos que haja uma razão convincente para uma alternativa unilateral.

A proporção amostral (P-hat) que calculamos é de 0,139, significativamente menor que 30%. Mas essa diferença é estatisticamente significativa? Para avaliar isso, analisamos a distribuição amostral de P-hat. Imaginamos obter amostras do mesmo tamanho repetidamente e calcular a proporção de deficiências de zinco a cada vez. Supondo que o tamanho da amostra (n) seja grande (que é o caso aqui com n = 36), a distribuição amostral terá uma curva em forma de sino. Podemos determinar seu centro e propagação. A média da proporção amostral (P-hat) será a mesma que a proporção populacional (P), enquanto o desvio padrão de P-hat será a raiz quadrada de P(1-P)/n. Se você precisar de uma explicação mais detalhada, recomendo assistir ao meu vídeo sobre intervalos de confiança para proporções.

Agora que sabemos que a distribuição amostral segue uma curva em forma de sino com média e desvio padrão conhecidos, podemos calcular um escore z. Calculamos a diferença entre o valor observado (P-hat) e o valor esperado (P-nada) e dividimos pelo desvio padrão. Inserir os valores (P-hat = 0,139, P-nada = 0,30, n = 36) resulta em uma pontuação z de -2,11.

Para avaliar a probabilidade de obter um P-hat tão extremo quanto o que observamos (ou ainda mais extremo), examinamos os escores z correspondentes. Nesse caso, estamos interessados na probabilidade de obter um escore z menor que -2,11 ou maior que 2,11. Podemos calcular isso avaliando a função de distribuição cumulativa (CDF) da distribuição normal padrão. Usando software estatístico ou aplicativos da web, descobrimos que a probabilidade de obter um escore z menor que -2,11 é de aproximadamente 0,017. No entanto, como estamos considerando as duas caudas da distribuição, precisamos dobrar esse valor, resultando em um valor-p de aproximadamente 0,035.

Comparando o valor p com nosso nível de significância escolhido (α = 0,05), descobrimos que o valor p é menor que α. Portanto, rejeitamos a hipótese nula e concluímos que a afirmação do comentarista é provavelmente falsa. A proporção de crianças de seis anos nos Estados Unidos com deficiência de zinco não é de 30%.

Quando se trata do tamanho da amostra e da aproximação normal, há algumas regras práticas a serem lembradas. A aproximação normal tende a funcionar bem quando a amostra tem pelo menos cinco sucessos e cinco falhas. Matematicamente falando, isso significa que o produto do tamanho da amostra (n) e a proporção da amostra (P) deve ser maior ou igual a cinco, assim como o produto do tamanho da amostra (n) e o complemento da proporção da amostra (1-P) também deve ser maior ou igual a cinco.

Em nosso caso, tivemos um tamanho amostral de 36 e uma proporção amostral (P-hat) de 0,139, o que satisfaz as condições para a aproximação normal. Portanto, podemos confiar com confiança na distribuição normal para nossa inferência estatística.

Também vale a pena notar que, em geral, tamanhos de amostra maiores tendem a produzir melhores resultados com a aproximação normal. À medida que o tamanho da amostra aumenta, a distribuição normal torna-se uma representação mais precisa da distribuição amostral de P-hat.

Portanto, em resumo, podemos concluir que o tamanho da amostra de 36 em nosso exemplo é suficientemente grande para utilizarmos a aproximação normal em nosso teste de hipótese.

Espero que isso esclareça o papel do tamanho da amostra na aproximação normal e forneça uma explicação abrangente do processo de teste de hipóteses para proporções.

Hypothesis Testing for Proportions
Hypothesis Testing for Proportions
  • 2020.05.09
  • www.youtube.com
How should we run a hypothesis test when we have data involving percentages, proportions, or fractions? Using a normal approximation. of course, at least whe...
 

Teste de hipótese para proporções: exemplo


Teste de hipótese para proporções: exemplo

Olá pessoal! Hoje, trabalharemos em um exemplo de teste de hipótese para proporções. Vamos mergulhar no problema. Uma universidade afirma que 65% de seus alunos se formam em quatro anos ou menos. No entanto, há dúvidas sobre a veracidade dessa afirmação. Para investigar mais, uma amostra aleatória simples de 120 alunos é tomada e descobre-se que apenas 68 dos 120 alunos se formaram dentro do prazo especificado. Como essa proporção é menor do que os 65% alegados, ela fornece evidências contra a afirmação da universidade. Agora, a questão é se essa evidência é forte o suficiente para sugerir que a afirmação é improvável ou se ela pode ser atribuída ao acaso. Para determinar isso, calcularemos um valor-p e tomaremos uma decisão usando um nível de significância (α) de 0,05.

Primeiramente, precisamos formular as hipóteses nula e alternativa. A hipótese nula afirma que os resultados se devem exclusivamente ao acaso e que a verdadeira proporção de alunos que se formam em quatro anos ou menos é de fato 0,65. Por outro lado, a hipótese alternativa sugere que a universidade está superestimando sua taxa de graduação e a proporção populacional é inferior a 0,65. Neste caso, uma hipótese alternativa unilateral é apropriada, pois estamos interessados apenas na possibilidade de a taxa de graduação ser inferior a 65%.

Assumindo que a hipótese nula é verdadeira, podemos aplicar o teorema do limite central, que afirma que quando o tamanho da amostra (n) é grande o suficiente, a distribuição amostral da proporção (P-hat) será aproximadamente normal. A média dessa distribuição é igual à média da população (P), e o desvio padrão é dado pela raiz quadrada de P vezes 1 menos P dividido por n. No nosso caso, como assumimos que a hipótese nula é verdadeira, a proporção populacional (P) é 0,65.

Agora, vamos calcular o z-score para determinar a probabilidade de obter um resultado tão extremo ou mais extremo que a proporção observada apenas por acaso. Ao inserir os valores, encontramos um escore z de -1,91. Para encontrar a probabilidade associada a esse z-score, que representa a probabilidade de se obter uma proporção menor ou igual à observada, utilizamos a função de distribuição cumulativa normal (CDF). Isso pode ser feito usando várias ferramentas, como tabelas, aplicativos da web ou software estatístico. Por exemplo, em R, o comando "Pnorm(-1.91)" retorna um valor de 0,028.

Comparando este p-valor com o nível de significância (α) de 0,05, observamos que o p-valor é menor que α. Portanto, rejeitamos a hipótese nula, indicando que é razoável concluir que a universidade vem superestimando sua taxa de graduação em quatro anos.

Hypothesis Testing for Proportions: Example
Hypothesis Testing for Proportions: Example
  • 2020.05.10
  • www.youtube.com
A complete example of a hypothesis test for a proportion using the normal approximation.
 

Introdução aos gráficos de dispersão


Introdução aos gráficos de dispersão

Olá pessoal! Hoje, vamos nos aprofundar nos gráficos de dispersão, que são exibições visuais de dados que envolvem várias variáveis coletadas simultaneamente. Os gráficos de dispersão são cruciais, pois frequentemente surgem em cenários de coleta de dados do mundo real. Muitas vezes, reunimos mais de uma informação. Por exemplo, podemos ter pontuações matemáticas e verbais do SAT para um grupo de alunos, alturas e pesos de indivíduos em um estudo médico ou dados sobre tamanho do motor e consumo de combustível de vários carros. Em cada caso, os dados são emparelhados, ou seja, cada valor de uma variável corresponde a um valor específico da outra variável, criando uma relação de um para um. Quando esses dados emparelhados existem, podemos construir gráficos de dispersão.

Vamos considerar um exemplo usando uma tabela. Cada coluna da tabela representa um campo científico ou de engenharia, com o número no topo indicando o número de PhDs concedidos a mulheres naquele campo em 2005, e o número na parte inferior indicando o número de PhDs concedidos a homens no mesmo ano. Ao plotar esses dados, onde os doutorados das mulheres são representados pelos valores x e os doutorados dos homens pelos valores y, obtemos um conjunto de pontos. Alguns pontos são rotulados, como (2168, 2227), que corresponde à segunda coluna de dados na tabela. Representa um campo científico onde 2.168 doutorados foram concedidos a mulheres e 2.227 foram concedidos a homens em 2005.

Ao examinar gráficos de dispersão, é importante descrevê-los qualitativamente. Neste exemplo, observamos uma tendência geral de queda nos dados, embora haja instâncias em que os valores aumentam à medida que nos movemos da esquerda para a direita. No geral, a forma dos dados tende a se inclinar para baixo, indicando uma associação negativa entre as duas variáveis. No entanto, é importante observar que devemos evitar o uso do termo "correlação negativa", a menos que a associação seja linear, ou seja, o gráfico segue uma linha reta. Nesse caso, os dados não apresentam uma relação linear.

Outro aspecto notável deste gráfico é o outlier no canto superior direito. Outliers podem cair em várias categorias, como erros de entrada de dados, casos incomuns que afetam a análise ou fenômenos interessantes que requerem investigação adicional. Por fim, é crucial considerar qual variável colocar no eixo horizontal e qual no eixo vertical. Se uma variável explica ou influencia naturalmente a outra em um estudo, ela deve ser colocada no eixo horizontal como variável explicativa. Por outro lado, a variável que está sendo explicada ou influenciada deve estar no eixo vertical como variável de resposta. Por exemplo, no exemplo do consumo de combustível, faz sentido ver o consumo de combustível como sendo explicado pelo tamanho do motor (deslocamento), então colocamos o consumo de combustível no eixo vertical. No entanto, essa escolha pode envolver alguma subjetividade, podendo haver cenários em que os papéis se invertem, dependendo do contexto do estudo.

Introduction to Scatterplots
Introduction to Scatterplots
  • 2020.04.11
  • www.youtube.com
What is a scatterplot? How do we construct them? How do we describe them? If this vid helps you, please help me a tiny bit by mashing that 'like' button. For...
 

Gráficos de dispersão e correlação


Gráficos de dispersão e correlação

Olá pessoal! Hoje, forneceremos uma breve introdução à correlação. Abordaremos esse tópico em apenas três minutos. Vamos começar!

Quando examinamos um gráfico de dispersão, às vezes observamos uma relação linear em que os dados seguem aproximadamente uma linha reta. Nesses casos, podemos discutir a correlação entre as variáveis. No entanto, é importante resistir à tentação de usar o termo "correlação" quando as variáveis têm uma relação diferente de linear. As correlações podem ser fracas ou fortes e podem ser positivas ou negativas.

Uma correlação positiva indica que, à medida que nos movemos da esquerda para a direita no gráfico, a forma geral dos pontos de dados se inclina para cima. Por outro lado, uma correlação negativa implica que a forma geral dos pontos de dados desce conforme lemos da esquerda para a direita. As correlações mais fortes são caracterizadas por pontos de dados agrupados de forma mais estreita em torno da linha imaginada, enquanto as correlações mais fracas exibem pontos de dados mais dispersos.

Para quantificar a correlação, usamos uma estatística chamada coeficiente de correlação (muitas vezes denotado como "r"). Varia entre -1 e 1. Valores mais próximos de 0 indicam dados mais nebulosos ou mais dispersos. Nos exemplos fornecidos, uma correlação de 0,4 ou -0,4 representa uma correlação moderada, enquanto 0,9 ou -0,9 significa uma correlação mais forte. Uma correlação de 1 ou -1 indica uma relação linear perfeita, onde todos os pontos de dados estão precisamente na linha.

É importante observar que o coeficiente de correlação "r" não deve ser confundido com a inclinação da reta. O sinal de "r" indica se a inclinação é positiva ou negativa, mas o próprio "r" não representa especificamente a inclinação. Em vez disso, o coeficiente de correlação reflete a dispersão dos dados da linha que se imagina passar pelo centro dos dados.

Quando as variáveis não exibem uma relação linear, dizemos que são não correlacionadas. Tome cuidado ao interpretar o coeficiente de correlação nesses casos. Mesmo que haja uma associação clara entre as variáveis, como em uma forma parabólica, computar a correlação resultaria em um valor próximo de zero.

Agora, vamos discutir a correlação de computação. Em resumo, não é recomendável calculá-lo manualmente. Felizmente, temos ferramentas como pacotes de software para nos ajudar. No R, por exemplo, o comando é "cor". Ao fornecer os valores de X e Y (as duas variáveis que queremos correlacionar), podemos obter imediatamente o coeficiente de correlação. Com a tabela fornecida, se atribuirmos a primeira linha como X e a segunda linha como Y, podemos simplesmente usar o comando "cor(X, Y)" para obter o valor da correlação. Neste exemplo, obtemos uma correlação de 0,787, indicando uma correlação positiva moderada.

Scatterplots and Correlation
Scatterplots and Correlation
  • 2020.04.14
  • www.youtube.com
Let's talk about relationships between quantitative variables!If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more #rstat...