1 Introdução

Nas seções seguintes, mostraremos como utilizar o R para:

Para compreensão dessa seção é necessário que você já tenha estudado o contéudo referente a esses assuntos.

2 Inferência sobre um média populacional

Considere o seguinte exemplo:

Exemplo: O teor de sódio foi medido para uma amostra de 20 caixas de 300 gramas de flocos de milho orgânico selecionados aleatoriamente entre as caixas produzidas pela fábrica na ultima semana. Os valores obtidos, em mg, são:

131,15 130,69 130,91 129,54 129,64 128,77 130,72 128,33 128,12 129,65

130,14 129,29 128,71 129,00 129,39 130,42 129,53 130,12 129,78 130,92


Podemos afirmar que o teor médio de sódio das caixas de milho produzidas pela fabrica na última semana é diferente de 129 mmg?

Para responder a essa pergunta vamos realizar o teste t para as seguintes hipóteses:

\[H_{0}: \mu = 129 \quad \times \quad H_{a}: \mu \ne 129\]

Para isso, vamos utilizar a estatistica \(T_{0}\), que consiste na distância padronizada da média amostral \(\bar{X}\), estimador da média populacional \(\mu\), e em relação ao seu valor esperado quando a hipótese nula é verdadera \(\mu_{0} = 129\), dada por:

\[T_{0}=\frac{\bar{X}-129}{S/\sqrt{n}}\],

Quando a amostra, \(X_{1},X_{2},...,X_{20},\) é uma amostra aleatória de uma distribuição \(N(\mu,\sigma)\), essa estatística de teste possui distribuição \(t\) de Student com \(n - 1 = 19\) graus de liberdade.

O valor observado dessa estatistica é facilmente calculado, fazendo:

teor=c(131.15, 130.69,130.91, 129.54, 129.64, 128.77, 130.72, 128.33, 128.12, 129.65, 130.14, 129.29, 128.71, 129.00, 129.39, 130.42, 129.53, 130.12, 129.78, 130.92)
mean(teor)
## [1] 129.741
sd(teor)
## [1] 0.8876278
t0=(mean(teor)-129)/(sd(teor)/sqrt(20))
t0
## [1] 3.733381

Utilizando a distribuição \(t\) de Sudent com \(n - 1 =19\) graus de liberdade, calculamos o p_valor do teste igual a \[2 \times P(T_{0} \geq |3,5074|),\] que é obtido no R como:

p_valor=2*pt(abs(t0),df=19,lower.tail=FALSE)
p_valor
## [1] 0.001408366

Considerando nivel de significância \(\alpha = 0,05\), nós temos evidências parar rejeitar a hipótese nula de que o teor médio de sódio presente nas caixas de milho produzidas pela fábrica na semana seja diferente de \(129 \ mg\), uma vez que o p-valor é inferior a \(0,05\).

Para quantificarmos \(\mu\),o teor médio de sódio das caixas de flocos de milho fabricadas na última semana, vamos construir um intervalo de confiança para ele. Para uma confiança de \(100(1-\alpha)\%\), os limites do intervalo do intervalo para \(\mu\) são dados por \[\bar{x}-t_{\alpha/2} \times \frac{s}{\sqrt{n}} \quad e \quad \bar{x}+t_{\alpha/2} \times \frac{s}{\sqrt{n}},\]

onde \(t_{\alpha/2}\) é o quantil de ordem \(1 - \alpha/2\) da distribuição \(t\) de Student com \(n-1\) graus de liberdade.

Para o exemplo, o intervalo de \(95\%\) de confiança para \(\mu\) é obtido fazendo:

LI=mean(teor)-qt(0.975,df=19)*sd(teor)/sqrt(20)
LS=mean(teor)+qt(0.975,df=19)*sd(teor)/sqrt(20)
Intervalo=c(LI,LS)
Intervalo
## [1] 129.3256 130.1564

Portanto, podemos afirmar com 95% de confiança que o teor médio de sódio da quantidade de flocos de milho presente nas caixas produzidas na última semana encontra-se entre 129.33 e 130.16 mg. Observe que esse intervalo não inclui o valor de \(\mu = 129\) estabelecido em \(H_{0}\) e, como esperado, o resultado obtido para o intervalo de confiança concorda com o resultado do teste de hipóteses realizado acima.

O teste de hipóteses e o intervalo de confiança realizados acima são facilmente construídos no R usando a função t.test. Para utilizá-la precisamos indicar no argumento x os valores observados na amostra, no argumento mu, o valor da média populacional estabelecido na hipótese nula e no argumento alternative, o tipo de hipótese alternativa considerada: “two.sided” para testes bilaterais, “less” para teste unilateral esquerdo e “greater” para teste unilateral direito. Para o exemplo, fazemos:

t.test(x=teor, mu=129, alternative="two.sided")
## 
##  One Sample t-test
## 
## data:  teor
## t = 3.7334, df = 19, p-value = 0.001408
## alternative hypothesis: true mean is not equal to 129
## 95 percent confidence interval:
##  129.3256 130.1564
## sample estimates:
## mean of x 
##   129.741

Para o caso de um teste unilateral direito com \[H_{0}: \mu = 129 \quad \times \quad H_{a}: \mu > 129,\] fazemos:

t.test(x=teor, mu=129, alternative="greater")
## 
##  One Sample t-test
## 
## data:  teor
## t = 3.7334, df = 19, p-value = 0.0007042
## alternative hypothesis: true mean is greater than 129
## 95 percent confidence interval:
##  129.3978      Inf
## sample estimates:
## mean of x 
##   129.741

Observe que nesse último caso a função t.test retorna o intervalo de confiança unilateral inferior para \(\mu\). O limite inferior desse intervalo é calculado de maneira idêntica ao limite inferior do intervalo bilateral, mas trocando \(t_{\alpha/2}\) por \(t_{\alpha}\) e o limite superior é feito igual a \(+\infty\). No caso de um teste unilateral direito, a função t.test retorna o intervalo uilateral superior, com limite inferior igual a \(-\infty\). Para obtenção do limite superior, procedimento análogo ao utilizado no caso anterior para obtenção do limite inferior é utilizado.

3 Inferência sobre 2 médias populacionais

Nessa seção vamos tratar do problema de comparação de médias populacionais a partir da observação de 2 amostras dessa populações. Vamos considerar 2 situações:

3.1 Caso de Amostras Independentes

Para ilustrar a situação de amostras independentes, considere o seguinte exemplo:

Exemplo: Um engenheiro eletricista deseja avaliar se a resistência média de capacitores da marca A é a mesma que aquela de capacitores da marca B. Para isso, ele selecionou por sorteio aleatório 10 capacitores de cada marca. Os valores obtidos para as duas amostras foram os seguintes:

Marca.A Marca.B
635 640
704 712
662 681
560 558
603 610
745 740
698 707
575 585
633 635
669 682

Os dados observados nas 2 amostras nos permitem afirmar que as 2 marcas de capacitores de são equivalentes quanto à sua resistência média?

Para reponder essa pergunta, vamos realizar o teste t para comparação das médias populacionais, considerando as seguintes hipóteses:

\[ \begin{aligned} \begin{cases} H_{0}: \mu_{A}-\mu_{B}&=0 \\ H_{A}: \mu_{A}-\mu_{B}&\neq 0 \\ \end{cases} \end{aligned} \]

onde \(\mu_{A}\) é a resistência média dos capacitores da marca A e \(\mu_{B}\) é a resistência média dos capacitores da marca B.

Antes de realizar o teste t para o exemplo acima, vamos fazer um breve revisão sobre o teste t para comparação de médias. No caso de amostras independentes, para realização do teste t para comparação de 2 médias populacionais, presume-se que as 2 amostras observadas são originárias de populações Normais com médias e variâncias desconhecidas. Seja \(\mu_A\) e \(\sigma_A^2\) a média e a variância da população \(A\) e \(\mu_B\) e \(\sigma_B^2\) a média e a variância da população \(B\).

De modo geral, a estatistica utilizada para testar as hipótese formuladas acima é dada por

\[T_0 = \frac{\left(\bar{X}_A-\bar{X}_B\right)-0}{\sqrt{\hat{VAR}\left(\bar{X}_A-\bar{X}_B\right)}}\]

onde \(\hat{VAR}\left(\bar{X}_A-\bar{X}_B\right)\) é um estimador da variância da diferença de médias \(\bar{X}_A-\bar{X}_B\).

Quando as duas amostras são independentes e as variãncias populacionais são diferentes \[VAR\left(\bar{X}_A-\bar{X}_B\right)=VAR\left(\bar{X}_A\right)+ VAR\left(\bar{X}_B\right)= \frac{\sigma_A^2}{n_A}+\frac{\sigma_B^2}{n_B}\] Um estimador para essa variância é obtido substituindo na expressão acima as variâncias \(\sigma_A^2\) e \(\sigma_B^2\) por seus estimadores \(S_A^2\) e \(S_B^2\), as variâncias das amostras das populações A e B.

Quando as variâncias \(\sigma_A^2\) e \(\sigma_B^2\) são iguais, temos que

\[VAR\left(\bar{X}_A-\bar{X}_B\right)=\sigma^{2}\left(\frac{1}{n_A}+\frac{1}{n_B}\right),\] onde \(\sigma^2\) é a variância comum às 2 populações. Um estimador para \(VAR\left(\bar{X}_A-\bar{X}_B\right)\) é obtido substuindo a variância comum \(\sigma^2\) por seu estimador,\(S_C^2\), a média ponderada das variâncias amostrais \(S_A^2\) e \(S_B^2\), com pesos proporcionais aos tamanhos de amostras, dada por:

\[S_C^2=\frac{(n_A-1)S_A^2+(n_B-1)S_B^2}{n_A+n_B-2}\]

Desta forma, quando as variâncias populacionais são iguais, para testar a hipotese nula \(H_0:\mu_A - \mu_B = \Delta_0\) contra uma hipótese alternativa, que pode ser unilateral ou bilateral, utilizamos a seguinte estatistica de teste:

\[T_0=\:\frac{\left(\bar{Y}_A-\bar{Y}_B\right)-\Delta _0}{\sqrt{S_c^2\left(\frac{1}{n_A}+\frac{1}{n_B}\right)}}\]

onde \(\Delta_{0}\) é o valor estabelecido para a diferença entre as médias \(\mu_{A}-\mu_{B}\) na hipótese nula, igual a zero para o exemplo. Quando a hipótese nula \(H_{0}: \mu_A - \mu_B = \Delta_0\) é verdadeira, essa estatistica de teste possui distribuição t de Student com \(n_A + n_B - 2\) graus de liberdade.

Quando as variâncias populacionais \(\sigma_A^2\) e \(\sigma_B^2\) são diferentes, nós utilizamos a estatística de teste

\[T_0=\:\frac{\left(\bar{Y}_A-\bar{Y}_B\right)-\Delta _0}{\sqrt{\frac{S_A^2}{n_A}+\frac{S_B^2}{n_B}}}.\]

que possui, quando a hipótese nula é verdadeira, distribuição que pode ser aproximada por uma distribuição \(t\) de Student com \(v\) graus de liberdade, dado por:

\[v=\frac{\left(\frac{S_A^2}{n_A}+\frac{S_B^2}{n_B}\right)^2}{\frac{(S_A^2/n_A)^2}{n_A-1}+\frac{(S_B^2/n_B)^2}{n_B-1}}\]

Essa aproximação é conhecida como aproximação de Welch. O teste t realizado usando essa estatística é conhecido como teste t de Welch para comparação de 2 médias.

Para quantificar a diferença entre as médias populacionais \(\mu_A-\mu_B\), um intervalo de \(100(1-\alpha\%)\) de confiança para essa diferença é obtido como:

\[IC_{\mu_A-\mu_B}{100(1 − \alpha)\%} = \left[ (\bar{X}_A-\bar{X}_B)-t_{\frac{\alpha}{2};(gl)} \cdot \sqrt{\hat{var}(\bar{X}_A-\bar{X}_B)}\right]\]

ontem gl, o número de graus de liberdade é igual \(n_A+n_B-2\) para o caso de amostras independentes de populações Normais com variãncias iguais, igual a \(v\) para o caso de amostras independentes de populações Normais com variãncias iguais, e a variância da diferença de médias é estimada como visto anteriormente.

Voltando ao exemplo, qual teste devemos utilizar, o teste t para o caso de variâncias populacionais iguais ou diferentes?

Para responder essa pergunta vamos realizar o teste \(F\), visto no capítulo anterior, para testar as hipóteses:

\[H_0: \sigma_A^2=\sigma_B^2 \quad \times \quad H_a:\sigma_A^2 \neq \sigma_B^2.\]

Para isso, vamos usar a função \(var.test\).

A= c(635,704,662,560,603,745,698,575,633,669)
B= c(640,712,681,558,610,740,707,585,635,682)
var.test(A,B)
## 
##  F test to compare two variances
## 
## data:  A and B
## F = 0.98828, num df = 9, denom df = 9, p-value = 0.9863
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  0.2454753 3.9788187
## sample estimates:
## ratio of variances 
##          0.9882823

O p-valor do teste, igual a 0,9863 indica que nós devemos aceitar a hipótese de que as variâncias populacionais são iguais. Diante disso, vamos realizar o teste t para comparação das médias assumindo que as variâncias populacionais são iguais. Calculamos abaixo o valor observado da estatistica de teste, \(t_0\), e o p-valor igual a \(2 \times (P(T_0 \geq |t_0|))\), onde \(t_0\) é o valor observado da estatistica de teste.

A= c(635,704,662,560,603,745,698,575,633,669)
B= c(640,712,681,558,610,740,707,585,635,682)
var(A)
## [1] 3463.6
var(B)
## [1] 3504.667
varcomb=((length(A)-1)*var(A)+(length(B)-1)*var(B))/(length(A)+length(B)-2)
varcomb
## [1] 3484.133
t0=((mean(A)-mean(B))-0)/sqrt(varcomb*(1/length(A)+1/length(B)))
t0
## [1] -0.2500239
p_valor=2*pt(abs(t0),df=length(A)+length(B)-2,lower.tai=FALSE)
p_valor
## [1] 0.8054001

O teste t realizado a acima pode ser facilmente realizado usando a função t.test, que foi utilizada anteriormente para construir o teste t para uma média populacional. No caso de 2 amostras, é preciso indicar os seguinte argumentos: x e y, os vetores contendo os valores observados para as 2 amostras; mu , que nesse caso indica o valor para a dirença entre as médias estabelecido na hipótese nula; var.equal, que deve ser feito igual a TRUE quando as variãncias populacionais forem consideradas iguais e FALSE, caso contrario. A opção FALSE é opção padrão. No argumento paired, as opçoes FALSE e TRUE, indicam se as amostras são independentes ou pareadas. Para o exemplo, fazemos:

A= c(635,704,662,560,603,745,698,575,633,669)
B= c(640,712,681,558,610,740,707,585,635,682)
t.test(A,B, var.equal=TRUE, paired=FALSE, mu=0,alternative="two.sided")
## 
##  Two Sample t-test
## 
## data:  A and B
## t = -0.25002, df = 18, p-value = 0.8054
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -62.05904  48.85904
## sample estimates:
## mean of x mean of y 
##     648.4     655.0

O p-valor, igual a 0,8054 nos indica um valor da estastistca de teste tão ou mais extremo que o seu valor observado, \(t_0 = -0,2502\), é muito provável de ocorrer quando a hipótese nula é verdadeira. Considerando nível de significância \(\alpha = 0,05\), nós concluímos que as resistências médias dos capacitores são equivalentes.

A função t.test nos retornou o intervalo de \(95\%\) de confiança para a diferença entre as médias populacionais. Temos que, com \(95\%\) de confiança, a diferença entre a resistência média dos capacitores da marca A e a resistência média dos capacitores da marca B, \(\mu_A - \mu_B\) está entre \(-62,05\) e \(48,85\). Observe que esse intervalo inclui o valor \(0\), o valor de \(\mu_A -\mu_B\) estabelecido na hipótese nula, concordando com o teste de hipóteses que nos levou à aceitação da igualdade das 2 médias populacionais.

Considere agora outro exemplo.

Exemplo 2 Como parte de uma pesquisa sobre reconhecimento de padrões, pessoas foram convidadas a examinar uma figura para encontrar uma a palavra tecnologia escrita de trás para frente e camuflada em um padrão elaborado. Os tempos para reconhecimento da palavra tecnologia foram medidos para dois grupos de pessoas, um grupo formado por pessoas com profissão A e outro grupo formado por pessoas com profissão B. De uma amostra de 23 pessoas da profissão A, 11 reconheceram a palavra e de uma amostra de 19 profissionais da profissão B, 13. Os tempos em segundo, obtidos para os 2 grupos foram:

Profissão A: 55, 18, 99, 54, 87, 11, 68, 62, 27, 90, 57

Profissão B: 23, 69, 34, 27, 51, 29, 45, 42, 48, 64, 31, 30, 31

Avalie se, para os indivíduos que conseguem reconhecer o padrão, o tipo de profissão influencia no tempo de reconhecimento do mesmo.

Vamos realizar o test t para as hipóteses:

\[ \begin{aligned} \begin{cases} H_{0}: \mu_{A}-\mu_{B}&=0 \\ H_{A}: \mu_{A}-\mu_{B}&\neq 0 \\ \end{cases} \end{aligned} \]

onde \(\mu_{A}\) é o tempo médio de reconhecimento do padrão pessoas com a profissão A e \(\mu_{B}\) é o tempo médio de reconhecimento do padrão pessoas com a profissão B.

Antes de realizar esse teste, vamos, através do teste F, avaliar se as variâncias dos tempos de reconhecimento do padrão para pessoas das profissões A e B , \(\sigma_A^2\) e \(\sigma_B^2\), são iguais ou diferentes.

A= c(55, 18, 99, 54, 87, 11, 68, 62, 27, 90, 57)
B= c(23, 69, 34, 27, 51, 29, 45, 42, 48, 64, 31, 30, 31)
var.test(A,B)
## 
##  F test to compare two variances
## 
## data:  A and B
## F = 4.0445, num df = 10, denom df = 12, p-value = 0.02536
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##   1.198892 14.645005
## sample estimates:
## ratio of variances 
##           4.044525

Observe que o valor variância dos tempos de reconhecimento do padrão na primeira amostra é 4,04 vezes o valor observado para a segunda amostra. O p-valor do teste, igual a \(0,02526\) nos indica que, considerando nível de significância \(\alpha = 0,05\), a variância do tempo gasto no reconhecimento do padrão não é o mesmo para as 2 profissões. Por essa razão vamos utilizar o teste de Welch para comparar as médias dos 2 grupos.

A= c(55, 18, 99, 54, 87, 11, 68, 62, 27, 90, 57)
B= c(23, 69, 34, 27, 51, 29, 45, 42, 48, 64, 31, 30, 31)
t.test(A,B, paired=FALSE, var.equal=FALSE, alternative="two.sided")
## 
##  Welch Two Sample t-test
## 
## data:  A and B
## t = 1.7415, df = 14.107, p-value = 0.1034
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -3.871964 37.438397
## sample estimates:
## mean of x mean of y 
##  57.09091  40.30769

O p-valor do teste, igual a \(0,1034\) nos indica que, considerando nível de significância de 5%, não temos evidências de que os tempos médio de reconhecimento do padrão dependa do tipo de profissão.

A função \(t.test\) também retornou o intervalo de confiança para a diferença entre as médias \(\mu_A-\mu_B\). Observe que, com \(95\%\) de confiança, a diferença entre os tempos médios gastos no reconhecimento do padrão por pessoas da profissão A e B respectivamente, está entre -3,87 e 34,44 minutos. Como esperado, esse intervalo inclui o valor \(0\), estabelecido para a diferença entre as médias populacionas na hipótese nula.

Como no caso de uma amostra, no caso de testes unilaterais, a função \(t.test\) retorna intervalos de confiança unilaterais, obtidos de forma semelhante aos intervalos de confiança unilaterais para uma média populacional.

3.2 Caso de amostras pareadas

Na seção anterior, vimos como realizar no R teste t para amostras independentes. Nessa seção veremos como realizar no R inferências para médias para o caso de amostras pareadas.

O teste t pareado é utilizado para comparação de duas médias populacionais quando as amostras consistem de pares de unidades experimentais ou observacionais similares com relação a fontes conhecidas de variação que podem influenciar a variável resposta de interesse, ou quando consistem de pares de medidas repetidas para uma mesma unidade medidas sob diferentes condições.

Quando as amostras são pareadas, a estatistica de teste para comparar 2 médias populacionais também é da forma:

\[T_0 = \frac{\left(\bar{X}_A-\bar{X}_B\right)-\Delta_0}{\sqrt{\hat{VAR}\left(\bar{X}_A-\bar{X}_B\right)}}\]

Porém, quando as amostras são dependentes, \(\hat{VAR}\left(\bar{X}_A-\bar{X}_B\right)\) não pode ser estimada como no caso de amostras independentes. Mas, sabemos que quando os dados são pareados a diferença entre e médias amostrais é igual à media das diferenças observadas entre os pares de observações:

\[\bar{X}_A-\bar{X}_B = \frac{\sum{_{i=1}^n{X_{Ai}}}}{n}-\frac{\sum{_{i=1}^n{X_{Bi}}}}{n} = \frac{\sum{_{i=1}^n{\left(X_{Ai}-X_{Bi}\right)}}}{n} = \frac{\sum_{i=1}^{n}{D_{i}}}{n}=\bar{D}\]

e

\[VAR(\bar{X}_A-\bar{X}_B) = VAR(\bar{D}).\]

Então, testar a hipótese nula \(H_0:\mu_A-\mu_B= \Delta_{0}\) é equivalente a testar a hipótese nula \(H_{0}:\mu_{D}=\Delta_{0}\). Consequentemente o problema de 2 amostras reduz ao problema de 1 amostra, a amostra das diferenças \(D_1=X_{A1}-X_{B1},...., D_n=X_{An}-X_{Bn}\).

Assumindo que as diferenças \(D_1,....,D_n\) consistem numa amostra aleatória de uma distribuição Normal com média e desvio padrão desconhecidos, para testar a hipótese nula \(H_0:\mu_A-\mu_B= \Delta_0\) contra uma hipótese alternativa, bilateral ou unilateral, vamos utilizar a estatistica de teste

\[T_0=\frac{\bar{D}-\Delta_0}{\sqrt{\frac{S_D^2}{n}}},\]

que possui distribuição \(t\) de Student com \(n-1\) graus de liberdade quando \(H_{0}\) é verdadeira.

Para quantificar a diferença entre as médias \(\mu_D =\mu_A-\mu_B\), construímos um intervalo de \(100(1-\alpha\%)\), dado por:

\[IC_{\mu_{D}}{100(1 − \alpha)\%} = \left[ \bar{D} - t_{\frac{\alpha}{2};(n-1)}\sqrt{\frac{s_{D}^2}{n}} ;\text{ } \bar{D} + t_{\frac{\alpha}{2};(n-1)}\sqrt{\frac{s_{D}^2}{n}}\right]\]

No R, o teste t pareado pode ser realizado usando a função t.test. Isso pode ser feito de 2 maneiras: fazendo o teste t para uma amostra como indicado na seção 2, informando no argumento X os valores observados das diferenças entre os pares de observações \(d_1,d_2,...., d_2\) ou informando nos argumentos x e y os valores observados para as 2 amostras segundo a ordem dos pares e fazendo o argumento paired igual a TRUE, como mostrado para o exemplo seguinte:

Exemplo: Dez indíviduos participaram de um programa de modificação alimentar para redução de peso. Seus pesos antes e depois do programa são listados a seguir:

Índice Antes Depois
1 195 187
2 213 195
3 247 221
4 201 190
5 187 175
6 210 197
7 215 199
8 246 221
9 294 278
10 310 285

Os dados obtidos nesse estudo evidenciam a eficácia do programa de modificação alimentar na redução de peso?

Para responder essa pergunta, vamos realizar o teste t pareado considerando nível de significância de \(5\%\), cujas hipóteses a serem testadas são:

\[H_0: \mu_D = 0 \quad H_a: \mu_D > 0\]

onde \(\mu_D\) é a media das diferenças entre os pesos dos indivíduos medidos antes e depois da utilização do programa de modificação alimentar.

Vamos utilizar a função \(t.test\) de 2 maneiras:

  1. utilizando como dados de entrada o vetor contendo as diferenças entre os pesos dos indivíduos medidos antes e depois do programa de modificação alimentar;
  1. utilizando como dados de entrada os vetores contendo respectivamente os pesos dos indivíduos medidos antes e depois da utilizaçao do programa de modificação alimentar.

No primeiro caso, calculamos o vetor de diferenças entre antes e depois, e depois realizamos o teste t para essas diferenças:

diferencas <- antes - depois
t.test(diferencas,alternative="greater")
## 
##  One Sample t-test
## 
## data:  diferencas
## t = 8.3843, df = 9, p-value = 7.593e-06
## alternative hypothesis: true mean is greater than 0
## 95 percent confidence interval:
##  13.2832     Inf
## sample estimates:
## mean of x 
##        17

Dado que o p-valor é igual a \(0,00000759\) (menor do que \(\alpha = 0,05\)), podemos concluir que o experimento realizado apresenta evidências estatísticas de que o programa de modificação alimentar, em média, foi eficaz na redução do peso.

Para quantificar a redução média de peso proporcionada pelo programa de modificação alimentar, construímos o intervalo de \(95\%\) de confiança para \(\mu_D\). Temos que, com \(95\%\) de confiança, o programa de modificação alimentar produz uma redução média no peso dos indivíduos ou igual a \(13,28\) kg.

A seguir, realizamos o teste t utilizando os vetores de pesos medidos nas 2 antes e depois do programa de modificação alimentar como dados de entrada, e declarando o argumento paired igual a TRUE.

t.test(antes, depois, paired = T,alternative="greater")
## 
##  Paired t-test
## 
## data:  antes and depois
## t = 8.3843, df = 9, p-value = 7.593e-06
## alternative hypothesis: true difference in means is greater than 0
## 95 percent confidence interval:
##  13.2832     Inf
## sample estimates:
## mean of the differences 
##                      17