1. (ip:281473660056925 | 05:51:51 | 23:03:02 | 11:11 | 5...

91
1. (IP:281473660056925 | 05:51:51 | 23:03:02 | 11:11 | 5.455) Um experimento vai avaliar a resposta de cinco cultivares de cana a quatro sistemas de recomendação de calagem em quatro solos distintos, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas De acordo com os dados mostrados acima, o delineamento mais adequado a ser aplicado neste experimento é o delineamento em blocos casualizados, devido ao mesmo ser conduzido em casa de vegetação, visto que a mesma não apresenta ambiente homogêneo em relação a luminosidade, temperatura, umidade entre outras. O arranjo fatorial a ser utilizado será o fatorial triplo 5x4x4 (cultivar, calagem, solo), pois como já dito o experimento vai ser conduzido em casa de vegetação o que impossibilita a utilização de parcelas subdivididas sendo necessário neste caso o uso do fatorial pois o mesmo possibilita que o experimento seja conduzido no ambiente proposto. F.V G.L Tratamento 80-1 = 79 Bloco 4-1 = 3 Resíduo 319-(79+3) = 237 Total (80x4)-1 = 319 Para início de conversa, está misturando alhos e bugalhos, com o arranjo do tratamento, e o delineamento. Embora concorde com o blocos, você não tem base para esta afirmativa sobre o ambiente, tão categórica. O ponto mais importante é que, embora tenha reconhecido o fatorial no texto, não o reconheceu no esquema. 0,25 2. [] (IP:281473660056925 | 05:52:55 | 23:03:20 | 10:25 | 17.524) Considere e discuta a seguinte afirmativa: "Nem sempre o modelo com o melhor R² não- ajustado é o mais adequado". A afirmativa é verdadeira, pois o R2 não ajustado não é suficiente para indicar qual o melhor modelo a ser utilizado, pois pode-se adicionar variáveis ao modelo, os quais pouco contribuem para explicar um determinado acontecimento, podendo até dificulta a explicação dos resultados. Por outro lado se o R2 ajustado for levado em consideração todos os parâmetros adicionado ao modelo, fornecerá uma melhor explicação da variação de y que será explicada pelo modelo de regressão, uma vez que o modelo ajustado leva em consideração todas as variáveis. Ok 1 3. [] (IP:281473660056925 | 05:53:17 | 23:04:18 | 11:01 | 1.905) Um experimento vai ser conduzido avaliando o efeito de cinco inoculantes rizobianos em dez variedades de caupi e quatro solos, em casa de vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas De acordo com os dados, o delineamento mais adequado a ser aplicado neste experimento é o delineamento em blocos casualizados, devido ao mesmo ser conduzido em casa de vegetação, visto que a mesma não apresenta ambiente homogêneo em relação às condições ambientais. O arranjo fatorial a ser utilizado será o fatorial triplo 10x4x5 (cultivar, solo, inoculante), pois como já dito o experimento vai ser conduzido em casa de vegetação o que impossibilita a utilização de parcelas subdivididas sendo necessário neste caso o uso do fatorial pois o mesmo possibilita que o experimento seja conduzido no ambiente proposto. Fatorial triplo 10x5x4 F.V G.L Tratamento 200-1 = 199 Bloco 4-1 = 3 Resíduo 799-(199+3) = 597 Total (200x4)-1 = 799

Upload: hoangtuyen

Post on 11-Feb-2019

218 views

Category:

Documents


0 download

TRANSCRIPT

1. (IP:281473660056925 | 05:51:51 | 23:03:02 | 11:11 | 5.455)

Um experimento vai avaliar a resposta de cinco cultivares de cana a quatro sistemas de

recomendação de calagem em quatro solos distintos, em casa de vegetação, com quatro

repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de

variação e graus de liberdade. Use tab para separar as colunas

De acordo com os dados mostrados acima, o delineamento mais adequado a ser aplicado neste experimento

é o delineamento em blocos casualizados, devido ao mesmo ser conduzido em casa de vegetação, visto que a

mesma não apresenta ambiente homogêneo em relação a luminosidade, temperatura, umidade entre outras.

O arranjo fatorial a ser utilizado será o fatorial triplo 5x4x4 (cultivar, calagem, solo), pois como já dito o

experimento vai ser conduzido em casa de vegetação o que impossibilita a utilização de parcelas

subdivididas sendo necessário neste caso o uso do fatorial pois o mesmo possibilita que o experimento seja

conduzido no ambiente proposto.

F.V G.L

Tratamento 80-1 = 79

Bloco 4-1 = 3

Resíduo 319-(79+3) = 237

Total (80x4)-1 = 319

Para início de conversa, está misturando alhos e bugalhos, com o arranjo do tratamento, e o delineamento.

Embora concorde com o blocos, você não tem base para esta afirmativa sobre o ambiente, tão categórica. O

ponto mais importante é que, embora tenha reconhecido o fatorial no texto, não o reconheceu no esquema.

0,25

2. [] (IP:281473660056925 | 05:52:55 | 23:03:20 | 10:25 | 17.524)

Considere e discuta a seguinte afirmativa: "Nem sempre o modelo com o melhor R² não-

ajustado é o mais adequado".

A afirmativa é verdadeira, pois o R2 não ajustado não é suficiente para indicar qual o melhor modelo a ser

utilizado, pois pode-se adicionar variáveis ao modelo, os quais pouco contribuem para explicar um

determinado acontecimento, podendo até dificulta a explicação dos resultados. Por outro lado se o R2

ajustado for levado em consideração todos os parâmetros adicionado ao modelo, fornecerá uma melhor

explicação da variação de y que será explicada pelo modelo de regressão, uma vez que o modelo ajustado

leva em consideração todas as variáveis.

Ok 1

3. [] (IP:281473660056925 | 05:53:17 | 23:04:18 | 11:01 | 1.905)

Um experimento vai ser conduzido avaliando o efeito de cinco inoculantes rizobianos em dez

variedades de caupi e quatro solos, em casa de vegetação, com quatro repetições. Indique

arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de

liberdade. Use tab para separar as colunas

De acordo com os dados, o delineamento mais adequado a ser aplicado neste experimento é o delineamento

em blocos casualizados, devido ao mesmo ser conduzido em casa de vegetação, visto que a mesma não

apresenta ambiente homogêneo em relação às condições ambientais. O arranjo fatorial a ser utilizado será o

fatorial triplo 10x4x5 (cultivar, solo, inoculante), pois como já dito o experimento vai ser conduzido em casa

de vegetação o que impossibilita a utilização de parcelas subdivididas sendo necessário neste caso o uso do

fatorial pois o mesmo possibilita que o experimento seja conduzido no ambiente proposto.

Fatorial triplo 10x5x4

F.V G.L

Tratamento 200-1 = 199

Bloco 4-1 = 3

Resíduo 799-(199+3) = 597

Total (200x4)-1 = 799

0,25 idem anterior

4. [] (IP:281473660056925 | 05:53:38 | 23:05:59 | 12:21 | 100.377)

Discuta a afirmativa: "A escolha correta do delineamento poderá fazer a diferença entre

encontrar ou não diferenças entre os tratamentos", levando em consideração particular o

tamanho do efeito de tratamentos

A escolha do delineamento poderá afetar a capacidade de encontrar diferença entre os tratamentos, pois o

delineamento correto reduz o efeito da variação do acaso, consequentemente a visualização das diferenças

entre o tratamentos será melhor identificada, e reduz o erro experimental. Com o delineamento correto, o

mesmo deve ser utilizado para reduzir o máximo da soma dos quadrados e o mínimo do grau de liberdade,

aumentando a precisão do experimento e reduzindo o coeficiente de variação.

Excelente 1

5. [] (IP:281473660056925 | 05:54:06 | 23:06:27 | 12:21 | 25.423)

Compare os efeitos principal e secundário de uma interação, do ponto de vista das informações

que podem ser obtidas a partir deles.

O efeito principal refere-se ao efeito atribuído a cada fator isoladamente, neste caso cada fator será avaliado

separadamente, ou seja, os demais fatores são repetições . Já os fatores secundários ou interações são os

efeitos das combinações entre dois ou mais fatores, neste caso obteremos o quanto um fator irá “mexer”

interferir com outro, não sendo necessário estudar cada fator separadamente.

Ok 1

6. [] (IP:281473660056925 | 05:54:23 | 23:07:22 | 12:59 | 47.853)

Explique o que é repetição real.

Repetição real nada mais é do que quantas vezes um determinado fator que compõem o tratamento aparece,

ou seja, quantas vezes o efeito principal aparece no experimento.O numero de repetições vai depender da

quantidade de níveis de cada fator e do numero de repetições do tratamento, como pode-se ter diferentes

números de níveis para cada fator, cada nível de um fator pode aparecer em quantidades diferentes.

Ok, mas apenas para deixar mais claro, é o número de vezes que cada nível de um fator aparece, já que o

fator como um todo sempre aparece. 1

7. [] (IP:281473660056925 | 05:54:45 | 23:07:29 | 12:44 | 3.306)

Qual a importância da interação?

A interação refere-se a ação conjunta de dois ou mais fatores, a interação é importante pois através dela

pode-se avaliar a relação entre os fatores do experimento, ou seja como um fator está interferindo no outro.

Uma interação não significativa indica a independência entre fatores o que leva usualmente a uma maior

precisão na estimação dos efeitos individuais pelo número mais elevado de repetições a que submete cada

um. No caso de uma interação apresentar significância os efeitos principais não vão interessar.

Ok 1

8. [] (IP:281473660056925 | 05:55:00 | 23:08:09 | 13:09 | 1.85)

Um experimento vai avaliar a tolerância de 100 estirpes de rizóbio a meio de cultura ácido com

três níveis diferentes de cloreto de cálcio em sua composição. Serão usadas 10 repetições.

Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e

graus de liberdade. Use tab para separar as colunas

De acordo com os dados, o delineamento mais adequado a ser aplicado neste experimento já que o mesmo

será conduzido em laboratório e que o mesmo não apresenta limitações, é o delineamento em blocos

casualizados, devido ao numero de amostras que iremos ter, e devido à avaliação que será realizada. Neste

caso o experimento será dividido em 6 blocos com 500 amostras . Devido ao numero de amostras ser

grande, as avaliações dos blocos será realizado por uma equipe de 5 pessoas devidamente treinadas e com a

mesma capacidade de avaliação.

F.V G.L

Tratamento 300-1 = 299

Bloco 6-1 = 5

Resíduo 2999-(299+5) = 2.695

Total (300x10)-1 = 2.999

Como nas outras questões, indicou o fatorial e não levou em consideração na análise de variância. O uso dos

blocos está correto, mas o início da resposta parece indicar que iria utilizar o DIC 0,25

9. [] (IP:281473660056925 | 05:56:40 | 23:08:29 | 11:49 | 18.21)

Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as

consequências desta diferença.

A hipótese cientifica tem como finalidade propor explicações para certos fatos, ou seja, é uma suposição que

antecede à constatação dos fatos e serve como guia para a linha de investigação da pesquisa. Ao se lançar

uma hipótese pode-se obter resultados bastante diferentes das hipóteses admitidas, sendo assim, para cada

hipótese cientifica testada haverá duas hipóteses estatísticas, a hipótese de nulidade (H0) determina a

ausência do efeito de tratamento, ou seja, que não existe diferença significativa entre os tratamentos, ela

sempre será o contrario do que se deseja testar, a hipótese de nulidade pode ser aceita ou rejeitada, quando

rejeitada se aceita a outra automaticamente, demonstrando que pelo menos um tratamento diferiu dos outros.

E a hipótese alternativa (H1) determina a presença do efeito de tratamento, ou seja, indica a existência de

diferença significativa entre os tratamentos.

Não mencionou nada a respeito da diferença entre os tipos de hipóteses e suas consequências 0,75

10. [0.000] (IP:0 | 05:57:39 | --:--:-- | --:-- | ------ )

Um projeto será conduzido para avaliar o efeito de tempo de cultivo com mandioca, cana,

milho e pastagem sobre a qualidade do solo nas três macro-regiões pernambucanas, de forma

independente para cada uma. Em cada macro-região serão selecionados quatro municípios

distintos, que serão as repetições, e em cada município serão avaliados cinco tempos de cultivo

e uma área de vegetação nativa. Serão avaliadas características físicas, químicas e

microbiológicas do solo, bem como sua profundidade por tradagem.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

Em branco 0

11. [] (IP:281473660056925 | 05:58:02 | 23:09:04 | 11:02 | 21.61)

Defina e exemplifique interação.

Interação refere-se à ação conjunta de dois ou mais fatores, ou seja, é o efeito das combinações entre dois ou

mais fatores. Exemplo: Um experimento que está sendo conduzido para avaliar o efeito do Potássio no solo

com e sem calagem, onde obtivemos os seguintes resultados. O solo em que não foi feito a calagem o valor

do efeito do potássio foi de 40, enquanto no solo em que foi feito calagem o valor do efeito de potássio foi

de -10. Com base nos resultados do efeito do potássio podemos afirmar que na ausência da calagem, a

adição de potássio provoca um aumento médio de 40 unidades enquanto que, o solo com calagem, a adição

do potássio provocou uma redução média de 10 unidades na produção.

Ok 1

12. [] (IP:281473660056925 | 05:58:18 | 23:09:47 | 11:29 | 11.035)

Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da

agronomia. Justifique.

Estamos interessados em avaliar a diferença de fertilidade do solo em um terreno heterogêneo, quanto à

produção de quatro variedades de feijão, após sorteio aleatório da disposição das plantas no terreno temos:

A1 B4 C3 D2

A4 B1 C2 D3

A3 B2 C1 D4

A2 B3 C4 D1

Letras- fertilidade do solo; Numeros – variedades

Este experimento está sendo realizado para avaliar o efeito da fertilidade do terreno nas variedades de feijão,

sendo que a o terreno apresenta manchas de solo com fertilidades distintas, sendo as variedades de

fertilidade controlada em colunas e as variedades de feijão em linhas.

Misturou Jesus com cuscuz. As variedades seriam os tratamentos, não o delineamento, enquanto a diferença

entre DBC e DQL é quanto ao emprego do controle local. 0

13. [] (IP:281473660056925 | 05:58:39 | 23:10:03 | 11:24 | 15.172)

Justifique a importância dada ao Modelo Linear Generalizado, em suas palavras.

O modelo linear generalizado (MLG) é de suma importância, pois o mesmo apresenta flexibilidade, ou seja,

uma quantidade enorme de delineamentos se baseia nele, e ele promove uma boa analise de dados. O MLG é

representado por uma equação matemática, que nos permite observar como cada resultado poderá

influenciar no resultado obtido. De modo geral o MLG pode apresentar efeito positivo ou negativo referente

ao tratamento, caso seja positivo, deve-se somar caso contrario deve-se subtrair o valor do tratamento, e

somar com a variação do acaso. Para a eficiência do modelo deve-se fazer ajustes, pois sem ele fica

impossibilitado o seu uso. O modelo apresenta implicações como: o comportamento aditivo, no caso se

houver duas variáveis em uma mesma equação deve-se separar a variação do acaso do tratamento. Os

requisitos do modelo são: apresenta efeito aditivo permitindo a separação dos efeitos de tratamento do acaso,

esta independência pode ocorrer devido ao uso da casualização, a distribuição normal do acaso deve ser

zero.

A primeira frase está ok, mas o resto está bastante difícil de entender. Por exemplo, como a distribuição do

acaso pode ser zero? Na realidade é a média do acaso que é zero, e que tem distribuição normal 0,5

14. [] (IP:281473660056925 | 05:59:05 | 23:10:24 | 11:19 | 16.782)

Discuta possíveis vantagens e desvantagens do uso de regressão na ciência do solo. Detalhe em

particular cuidados que devemos tomar em sua interpretação.

As vantagens do uso de regressão na ciência do solo é que podemos usa-la para obter a dosagem ideal, em

um experimento, e fornecer também os pontos máximos e/ ou mínimos da dosagem referente a uma variável

estudada, a função obtida da regressão nos permite estimar valores medianos entre os valores reais obtidos

durante o experimento. Como desvantagens temos a extrapolação dos dados, uso inadequado de modelos

para explicar o comportamento dos dados analisados, uma serie de dados não é bem representada quando se

utiliza regressão linear, a regressão polinomial não apresenta interpretação biológica valida. A regressão é

muito utilizada em ciências do solo, pois ela é uma importante ferramenta em áreas como nutrição mineral

de plantas, fertilidade entre outras, Em relação a interpretação dos dados deve-se tomar cuidados, com o

modelo a ser utilizado no estudo.

Medianos não é intermediário… cuidado com a linguagem, que sempre deve ser precisa. Meio confuso 0,75

15. [] (IP:281473660056925 | 05:59:33 | 23:10:48 | 11:15 | 19.863)

Qual a principal vantagem do uso de regressões não lineares?

A regressão não-linear é uma forma de análise observacional em que os dados são modelados por uma

função que é uma combinação não-linear de parâmetros do modelo, e depende de uma ou mais variáveis

independentes. Nos modelos não-lineares, ao invés de se fazer uma descrição puramente empírica do

fenômeno em estudo, pode-se, a partir de suposições importantes sobre o problema (freqüentemente dadas

através de uma ou mais equações diferenciais), trabalhar no sentido de se obter uma relação teórica entre as

variáveis observáveis de interesse. O problema, diferentemente do caso linear, é que os parâmetros entram

na equação de forma não linear, assim, nós não podemos simplesmente aplicar fórmulas para estimar os

parâmetros do modelo. Outra vantagem dos modelos não lineares é obter parâmetros que são facilmente

interpretáveis. Em muitas situações, necessitam-se de menos parâmetros ,nos modelos não lineares do que

nos lineares, isto simplifica e facilita a interpretação. Então se percebe que os modelos não-lineares são

usualmente resultantes de processos interativos, porque são frequentemente derivados de modelagem

mecanicista, onde todas as causas possíveis sejam conhecidas. São bons modelos descritores de fenômenos

biológicos, pois grande parte dos parâmetros tem significado biológico. Por exemplo, o desenvolvimento de

modelos matemáticos não-lineares (Gompertz), para relacionar peso e idade de um dado organismo animal

tem-se mostrado adequados para descrever a curva de crescimento. Esses modelos permitem que conjuntos

de informações em séries de peso por idade, sejam condensados num pequeno número de parâmetros, para

facilitar a interpretação e o entendimento do fenômeno.

Quando permitimos o uso da literatura na resposta não é para copiar diretamente dela, como a parte final de

sua resposta deixa bastante aparente. No entanto, de modo geral a resposta está ok 1

16. [] (IP:281473660056925 | 05:59:49 | 23:11:09 | 11:20 | 17.739)

Quais são os principais critérios para avaliar a qualidade de uma amostragem?

Os principais critérios a ser seguido em uma avaliação da qualidade de uma amostragem serão: Primeiro

definir o objeto de estudo ( Solo, planta etc..), ir ao local do estudo para avaliar a área, e especificar ou

identificar os itens ou eventos que serão avaliados, em seguida implantar um plano de amostragem

(definindo os locais aleatoriamente das coleta, o tamanho da amostra, quantidades de repetições).

Você leu a pergunta? Não estou perguntando sobre o planejamento da amostragem como sua resposta

indica, mas avaliar a qualidade dela, o que necessariamente depende dela ter sido feita…0

17. [] (IP:281473660056925 | 06:00:07 | 23:11:29 | 11:22 | 17.055)

Qual a principal consequência do uso de parcela subdividida?

A principal consequência do uso da parcela subdividida é a prca da precisão estatística do experimento,

devido a redução das parcelas principais, e consequentemente redução do grau de liberdade, podendo as

mesmas apresentarem mais variações do acaso.Só em alguns casos é que a perca é compensada

operacionalmente, de vido a redução da área do experimento, redução dos custos entre outros.

Não. A principal consequência é a divisão da variação total do acaso em duas ou mais partes, cada uma

necessariamente inferior ao todo. 0,25.

18. [] (IP:281473660056925 | 06:00:24 | 23:11:54 | 11:30 | 18.725)

Avalie o efeito de diferentes estratégias de seleção do melhor modelo sobre a probabilidade de

ocorrência de erro do tipo I.

As estratégia utilizadas para selecionar o melhor modelo sobre a probabilidade de ocorrência do erro tipo I

são: “seleção para trás”- que parte da regressão completa, e a cada rodada elimina a variável cuja saída

produz menor efeito no modelo geral. “seleção para frente”- nesse modelo as variáveis vão sendo

adicionadas progressivamente, e são feitos testes para medir seu efeito no conjunto. Esses dois processos

promovem bons resultados, principalmente se o numero de variáveis não forem grandes. Outra opção é o

“stepwise”, onde se tem uma combinação dos outros dois métodos, onde cada variável adicionada ao

modelo e as variáveis já adicionadas são testadas novamente. Devido ao grande numero de testes feitos para

verificação de cada modelo acaba aumentando a chance de ocorrência do erro tipo I. Vale salientar que o

erro do tipo I , não aumenta em cada um dos testes, e sim de forma cumulativa.

Não identifiquei resposta à pergunta, que foi sobre o efeito das estratégias sobre a chance de erro. Você

falou sobre as estratégias, e depois veio falar do efeito separadamente, sem ligar as duas coisas 0,5

19. [] (IP:281473660056925 | 06:00:48 | 23:12:21 | 11:33 | 22.712)

Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para

preveni-la.

A heterocedase é o fenômeno estatístico que representa a variância inconstante dos resíduos, ou seja, ela se

dá quando todos os tratamentos apresentam variâncias diferentes, e por isso não se consegue que sejam

representados por um único valor. As principais consequências da heterocedasticidade são as curtoses

positivas e a assimetria, a curtose positiva se dá quando a distribuição dos dados não se assemelha a média,

ocasionando um problema na distribuição da curva, já na assimétrica ocorre quando o desvio-padrão do

conjunto de dados não aumenta quando a média aumenta. A ocorrência da heterocedase faz com que o teste

F não seja realizado, pois a curtose positiva e a assimetria afeta a confiabilidade do teste, pois o mesmo

tenderia a não rejeitar a hipótese nula, mesmo ela sendo incorreta, levando a dizer que os dados sejam

homocedaticos sem ser. Para prevenir a heterocedase deve-se fazer o uso dos testes de Cochran, Hartley,

Bartlett e Levene. Dentre esses quatro testes, podemos selecionar dois, o teste Bartlett é o mais usado,

contudo ele tende a mascarar diferenças para curtose negativa e encontrar para curtose positiva, tendendo a

não encontrar heterocedace mesmo havendo. O teste Levene faz a análise de variância dos resíduos em

valores absolutos, com os tratamentos, se as variâncias não forem homogêneas o teste F será significativo

indicando a heterocedase.

Início correto, fim correto, meio sem pé nem cabeça. Primeiro curtose positiva e assimetria são ligadas à

falta de normalidade, não à heterocedase, até onde me consta. 0,75

20. [] (IP:281473660056925 | 06:02:24 | 23:12:41 | 10:17 | 16.783)

Discuta a importância da repetição real, e suas consequências na avaliação dos fatores.

Repetição real nada mais é do que quantas vezes um determinado fator que compõem o tratamento aparece,

ou seja, quantas vezes o efeito principal aparece no experimento. Então quanto maior o numero de

repetições reais maior segurança teremos nos valores dos dados, será mais fácil também de verificar a

diferença entre cada fator e a diferença entre eles, além de ser mais fácil de separar o que é variação do

tratamento e variação do acaso.

Ok 1

21. [] (IP:281473660056925 | 06:02:42 | 23:13:12 | 10:30 | 1.775)

Descreva situações em que o uso da multivariada seria interessante em trabalhos de

experimentação.

Situação

Avaliar as características morfológicas e os atributos físicos de solos cultivados com soja em função de

diferentes tempo de implantação do sistemas de plantio direto, após cultivo anterior em sistemas de plantio

convencional, além de identificar estatisticamente as variáveis que mais contribuem para a alteração do solo.

2-Situação

Avaliar a interação entre genótipos e ambiente e a estabilidade fenotípica, para linhagens experimentais de

soja, com finalidade de identificar genótipos inferiores.

Não tenho ideia de porque nestas duas situações seria adequado usar a multivariada, já que para começo de

conversa nem indica quantas variáveis estão sendo avaliadas em cada situação, que seria o mínimo para

indicar o uso da multi. De modo geral, a análise de estabilidade é baseada em estatística univariada mesmo.

No primeiro caso, o uso da multivariada está mais claro, mas parece mais com uma situação de amostragem

do que de experimentação 0,5

22. [] (IP:281473660056925 | 06:03:01 | 23:40:21 | 37:20 | 1606.258)

Debata os principais prós e contras das diferentes alternativas para análise de medições

repetidas.

As principais vantagens da analise de medidas repetidas é que cada informação é uma variável, eliminando

assim a distorção entre a variável estatística e o valor real, há uma redução da variância, e é possível reduzir

o erro através da utilização de blocos numa variável (ex: Bloquear classe social QI), com as medidas

repetidas o bloqueamento é levado ao extremo, onde cada sujeito é um bloco. Portanto, a variabilidade entre

o sujeito devido à diferença individual é completamente removida do termo de erro. Outra vantagem é a

redução do numero amostras, reduzindo assim o erro tipo I. Se o aumento da precisão e a economia de

amostras são as vantagens principais do modelo de medidas repetidas, as desvantagens seria em relação a

ordem em que os tratamentos são administrados, pois pode afetar a analise, pode haver perca de informações

sobre a interação tempo X tratamento.

Novamente, o uso da literatura parece ter substituído o raciocino sobre o assunto. Primeiro, gostaria de saber

de onde apareceu classe social em nossa disciplina. Simplesmente não consigo avaliar o raciocínio por trás

da resposta, em particular considerando que a pergunta foi bem específica para comparar diferentes métodos

de análise, o que não é sequer mencionado na resposta 0

1.

Qual a importância da interação?

Na interação, um efeito principal influencia outro, ou seja, a melhor expressão de um certo fator só ocorrerá

na presença do outro. Do ponto de vista de uma análise fatorial, quando a interação é significativa, não é

correto a interpretação dos efeitos principais, uma vez que a interação tem um poder muito maior de explicar

o fenômeno biológico estudado. É justamente por isso que ela é tão importante, afinal é a procura da

explicação biológica para a interação entre dois ou mais fatores resultantes de um fenômeno natural que

motiva as pesquisas agrárias e biológicas.

Excelente 1

2. [] (IP:281473659104419 | 07:32:42 | 21:37:12 | 04:30 | 28.136)

Considerando um experimento estudando três níveis de adubação orgânica, discuta se o

melhor caminho para análise é a regressão ou comparação de médias.

O melhor caminho seria a comparação de médias, porque possibilitaria identificar, dentre as dosagens, a que

oferece o melhor desempenho. A regressão seria mais útil se o objetivo do experimento fosse encontrar a

melhor dose para uma dada cultura, e, com a equação de regressão, seria possível predizer o comportamento

da adubação, encontrando o pico de produtividade, favorecendo futuras recomendações de adubação.

Embora concorde com a resposta, não concordo com o raciocínio, já que em momento algum foi explicitado

qual o objetivo do experimento. O ponto é que com apenas três pontos fica muito arriscado estabelecer

qualquer forma de relacionamento entre as variáveis com o mínimo de confiança 0,5

3. [] (IP:281473659104419 | 07:33:28 | 21:38:08 | 04:40 | 34.758)

Avalie o efeito de diferentes estratégias de seleção do melhor modelo sobre a probabilidade de

ocorrência de erro do tipo I.

É importante obter um modelo minimizando o número de variáveis incluídas, descartando aquelas não

significantes (ou com pouca contribuição para o ajuste). Para isso é preciso escolher uma estratégia para essa

seleção. Dentre as mais utilizadas, tem-se a “seleção para frente”, nesse método, as variáveis candidatas vão

sendo introduzidas progressivamente no modelo e são feitos testes para medir seu efeito no conjunto. Outra

estratégia é a “eliminação para trás”, que parte da regressão completa (com todas variáveis) e a cada rodada

é eliminada a variável cuja saída produz menor efeito no modelo geral. Esses dois processos são bem

semelhantes e promovem bons resultados, principalmente se o número de variáveis não for tão grande.

Outra opção é o “stepwise”, que é uma combinação dos outros dois métodos, onde a cada variável

adicionada ao modelo, todas as variáveis já adicionadas são testadas novamente. Esse procedimento

aumenta a confiabilidade da escolha das variáveis fixadas no modelo. Por outro lado, o grande número de

testes realizados para verificação de cada um dos modelos acaba por aumentar a chance de ocorrência do

erro tipo I (rejeição da H0 quando esta é verdadeira). De modo geral, os processos de seleção vão conduzir a

um aumento na chance de ocorrência do erro tipo I, uma vez que a cada teste realizado, aumenta a chance de

cometer em algum momento o erro. Vale esclarecer que a chance de ocorrer o erro tipo I não aumenta em

cada um dos testes, e sim de forma acumulativa. Por exemplo, considerando nível de significância de 5%, se

forem realizados 20 testes, pelo menos em um deles pode ocorrer erro tipo I, mas se forem feitos 100 testes,

em 5 deles pode ter cometido o erro tipo I.

Isoladamente, as duas partes estão corretas, mas faltou responder à pergunta propriamente dita, que é a

relação entre estas duas partes… 0,75

4. [] (IP:281473659104419 | 07:34:57 | 21:57:33 | 22:36 | 2.162)

Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos,

em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique

e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

Fatorial 10x5 com 4 repetições, pois o experimento visa o estudo da interação dos 10 níveis do fator soja

com os 5 níveis do fator inoculante rizobiano. Como o experimento será implementado em campo, o

controle local será aplicado com a utilização de blocos, constituindo o delineamento de blocos casualizados

(DBC).

Fonte de Variação Graus de Liberdade

Tratamento 50-1=49

Bloco 4-1=3

Resíduo 49x3=147

Total (50x4)-1=199

Porque será tão comum identificar que é fatorial e depois simplesmente desconsiderar isto na análise de

variância? 0.25

5. [] (IP:281473659104419 | 07:35:32 | 21:42:36 | 07:04 | 34.664)

Compare os erros tipo I e II, suas mais prováveis consequências, e seu relacionamento com

nível de significância.

A estatística pode trabalhar com duas hipóteses: a nula ou a alternativa. A hipótese nula (H0) afirma que não

há diferenças entre os tratamentos, enquanto a hipótese alternativa (H1) afirma que essa diferença existe. A

aceitação da H0 implica na negação da H1, ou vice versa. A decisão de aceitar ou não uma hipótese é

baseada em testes de significância, mas é possível cometer erros de julgamento, ou seja, rejeitar H0, quando

ela é verdadeira (erro tipo I); ou aceitar H0, quando ela é falsa (erro tipo II). O erro tipo I é o mais

importante, porque afirmar que existe diferença entre os tratamentos quando isso não ocorre leva a

conclusões equivocadas sobre a hipótese levantada, e do ponto de vista prático, pode ser muito danoso. Por

exemplo, ao dizer-se que a variável X é superior a Y, quando na verdade isso é falso, pode gerar muito

prejuízo aos produtores. Por outro lado, ao afirmarmos que a variável X não difere da Y, quando na verdade

difere (erro tipo II), o produtor não estará perdendo ao preferir a Y, só ganhando menos do que lucraria com

X. Na tentativa de controlar a ocorrência do erro tipo I, é possível predizer o nível de significância durante

os testes de variância, ou seja, a probabilidade máxima do erro tipo I ocorrer durante a avaliação. Os valores

mais usados são 10%, 5% e 1%; por exemplo, o nível de significância 5% é a probabilidade máxima de

ocorrer o erro de tipo I em 5% dos testes realizados. Lembrando que ao reduzir a probabilidade do erro tipo

I, aumenta-se a probabilidade do erro tipo II.

Excelente 1

6.

Diferencie interação e efeito principal.

Um fatorial é constituído por diferentes fatores. Quando avaliam-se esses fatores isoladamente,

independente dos demais, tem-se o efeito principal (quanto a variável resposta mudou devido a mudança no

nível do fator). Por outro lado, a constatação de que um fator interfere em outro, modificando seu efeito, é

chamada interação. O efeito principal é medido a partir do total dos fatores considerados (levando-se em

conta seus níveis e repetições), já as interações são computadas pela combinação de fatores em relação ao

conjunto geral de fatores. Por exemplo, na avaliação o efeito da aplicação de calcário em solo manejado

convencionalmente ou em plantio direto sob a produção de milho, é pode obter os seguintes resultados: a

aplicação de calcário aumentou a produção (efeito principal), ou a produção de milho aumentou no plantio

direto (efeito principal), ou ainda a produção de milho aumentou com a aplicação de calcário no plantio

direto (interação). Percebe-se que a interação é a resposta de uma ação conjunta entre dois (ou mais) fatores,

e que na sua presença os efeitos principais isolados não são mais tão importantes, porque as interações serão

mais consistentes, e representam melhor a realidade.

Na realidade a interação neste seu exemplo é de que a resposta do milho à calagem no palntio direto é

diferente da resposta no convencional. Fora este problema de entendimento a resposta está bastante boa 1

7. [] (IP:281473659104419 | 07:37:14 | 21:57:22 | 20:08 | 1.959)

Discuta diferentes critérios para seleção da melhor regressão linear múltipla.

Para a seleção da melhor regressão, primeiramente é necessário selecionar (através de testes de hipótese)

todas as variáveis que irão entrar no modelo, sempre observando a existência de colinearidade entre as

variáveis independentes. Na avaliação de modelos únicos ou aninhados (derivado de um modelo mais geral),

é preciso estabelecer critérios para a seleção do melhor dentre os modelos candidatos, ou seja, o que envolva

o mínimo de parâmetros que expliquem satisfatoriamente a variável resposta. Para isso, podem ser utilizados

critérios estatísticos de avaliação, como o coeficiente de regressão (R), o coeficiente de determinação (R²),

coeficiente de determinação corrigido (R²c), e estatística t ou F.

O coeficiente de correlação (R) é uma medida da relação linear entre as variáveis, indicando a proximidade

dos pontos à reta, ou seja, quanto mais próximo o ponto estiver da reta, maior o R (tendendo a 1,0). O

coeficiente de determinação (R²) indica a capacidade explicativa da equação, logo, quanto mais próximo de

1, maior a validade da regressão (100% de explicação). Porém, quanto mais variáveis são adicionadas a

regressão, maior será seu R². Para reverter isso, uma opção é o R² corrigido, que leva em consideração o

número de variáveis da regressão, suavizando o efeito da adição, dessa forma, se uma variável com pouco

poder explicativo for adicionada, o R²c diminuirá, o oposto acontece quando uma variável com alto poder

explicativo é adicionada. Mas o princípio se mantém, quanto maior o R²c, melhor a regressão. A estatística t

tem por objetivo o teste de significância de cada um dos parâmetros estimados do modelo, testando o efeito

individual do (x) sobre o (y). Outro teste bastante utilizado é o F, que testa simultaneamente a significância

do conjunto de parâmetros através do teste da hipótese nula (a equação não explica a variação da variável

resposta). Grandes valores de F permitem a rejeição da H0 (a regressão é de fato explicativa). Também é

possível montar todos os modelos e utilizar critérios baseados no máximo da função de verossimilhança,

estabelecendo, por exemplo, os respectivos AIC (índice que leva em conta a qualidade e a quantidade de

parâmetros utilizados em uma regressão), quanto menor o AIC, melhor o modelo.

Ok 1

8. [] (IP:281473659104419 | 07:37:44 | 21:44:09 | 06:25 | 25.068)

Quais são as principais diferenças entre os diferentes delineamentos experimentais?

Basicamente, a maior diferença entre os principais delineamentos (o inteiramente casualizado – DIC, e o de

blocos casualizados - DBC) é a aplicação ou não do controle local. No DIC, não há observação de

variabilidade ambiental (ambiente supostamente homogêneo), logo não se aplica o controle local. Nesse

delineamento, os tratamentos podem ser cruzados ou aninhados, todos os fatores devem ser fixos, e a

estrutura aleatorizada do DIC implica que toda variação que ocorre entre os fatores é devida ao acaso, sendo

todos os efeitos testados uns contra os outros. Por outro lado, no DBC, as variações ambientais foram

observadas e foi possível aplicar o controle local. As variações são isoladas de modo a separá-las das

variações atribuídas ao acaso ou ao tratamento, pois cada bloco contem unidades experimentais com

comportamento similar e a aleatorização é realizada dentro dos blocos. Isso promove uma redução do erro

experimental e incremento da precisão, uma vez que a variância do erro (medida pela comparação dentro

dos blocos) é menor por causa da homogeneidade interna dos blocos.

Esqueceu o quadrado latino, mas tudo bem 1

9. [] (IP:281473659104419 | 07:38:45 | 21:44:36 | 05:51 | 18.639)

Como podemos determinar o número de unidades amostrais em um projeto a ser conduzido

em área sem informação prévia?

O ideal em uma área sem informação prévia seria a aplicação de um experimento em branco. Trata-se de um

plantio (de uma única variedade) em toda a extensão do experimento. Assim, seria possível definir a

variabilidade da área. Porém, essa é uma técnica muito onerosa, e dificilmente é aplicada. A alternativa é a

utilização da fórmula: n = 4σ²/L²; onde n é o número de unidades amostrais, σ é a variância, e L é o erro

máximo tolerado. Porém, essa fórmula exige valores (não a porcentagem) da variância e do erro. Para obter

esses valores, é feita uma coleta aleatória (20 pontos, por exemplo) e essas amostras são trabalhadas

separadamente, obtendo-se a média e a variância da área, e com esses valores, calcula-se o novo número de

amostras a serem coletadas. Entretanto, o valor n pode variar para cada uma das variáveis estudadas, por

exemplo, 30 para análise de cálcio, 50 para fósforo, e 35 para potássio. Nesse caso, escolhe-se o maior

número (50 amostras) e generaliza-se para os demais parâmetros, pois dessa forma é atingida a precisão

exigida pro fósforo, e supera-se a do cálcio e do potássio. Lembrando que, como já haviam sido coletadas 20

amostras, bastam coletar mais 30 para atingir o valor estipulado.

A resposta inicial seria para experimentação, não amostragem, mas a final está excelente. A escrita parece

indicar ter vindo diretamente de algum texto, o que deve ser evitado. 1

10. [] (IP:281473659104419 | 07:39:11 | 21:45:47 | 06:36 | 59.094)

Compare os efeitos principal e secundário de uma interação, do ponto de vista das informações

que podem ser obtidas a partir deles.

No efeito principal, o fator é estudado isoladamente, enquanto no efeito secundário (ou interação), os fatores

estão agindo em conjunto. A partir do efeito principal é possível inferir qual nível do fator apresenta

resultados mais satisfatórios. Caso a interação seja significativa, o efeito dos fatores isolados não é relevante

para o entendimento do fenômeno, uma vez que a interação fornece uma representação mais condizente com

a realidade. Além disso, é possível avaliar a interação utilizando-se testes de variância ou regressões (a

depender do objetivo do estudo), aumentando a precisão e a relevância na estimação dos efeitos das

interações entre os fatores, enquanto que para a avaliação dos efeitos principais as comparações de média

são mais utilizadas. Por outro lado, uma interação muito complexa (triplas e quádruplas) dificulta bastante a

discussão dos resultados, pois o objetivo é a compreensão do processo biológico que gerou aqueles dados, e

não simplesmente a exposição dos resultados.

Na realidade podemos usar perfeitamente bem obrigado a regressão para efeitos principais quantitativos, do

mesmo jeito que na interação. O que diferenciaria neste caso é que apenas uma regressão explicaria o que

aconteceu, enquanto na interação precisaríamos de uma regressão para cada nível do outro fator envolvido

na interação 1

11. [0.000] (IP:0 | 07:39:51 | --:--:-- | --:-- | ------ )

Será conduzido um projeto para avaliar a reciclagem de nutrientes em pastagens, caatinga e

mata atlântica, ao longo do tempo. Para este fim será realizada a coleta da produção natural de

serrapilheira, seu conteúdo de nutrientes e sua decomposição. O projeto também deverá

avaliar a biomassa presente em cada ecossistema, bem como características microbiológicas,

químicas e de física do solo. Deverão existir repetições reais em cada ambiente.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

Em branco 0

12. [] (IP:281473659104419 | 07:40:23 | 21:56:38 | 16:15 | 2.13)

Um experimento vai avaliar o efeito de cinco fontes de carboidratos no desenvolvimento de 100

estirpes rizobianas, em placa de petri (16 cm de diâmetro x 3 cm de altura) com cinco

repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de

variação e graus de liberdade. Use tab para separar as colunas

Trata-se de um esquema fatorial 100x5 com 5 repetições, formado pelas 100 estirpes rizobianas com a

aplicação de 5 fontes de carboidratos. Com relação ao delineamento, condições de laboratoriais tendem a ser

homogêneas indicando um DIC, mas trata-se de um volume muito grande de placas a serem preparadas um

único dia, portanto é recomendado a utilização de Blocos Casualizados, de modo a garantir que cada bloco

seja preparado pelo mesmo operador e no mesmo dia.

Fonte de Variação Graus de Liberdade

Tratamento 500-1=499

Bloco 5-1=4

Resíduo 499x4=1996

Total (100x5)-1=2.499

Como na maioria das respostas a estas perguntas, identifica o fatorial no texto, e simplesmente desconsidera

o efeito disto na análise de variância. Devo confessar que isto é extremamente irritante. 0,25

13. [] (IP:281473659104419 | 07:41:23 | 21:48:03 | 06:40 | 21.667)

Compare a regressão polinomial com as regressões não-lineares, considerando os pontos de

vista de uso prático, e capacidade de interpretação dos resultados.

Dentre as muitas diferenças entre essas duas classes, a principal está relacionada a suas formulações. No

caso da regressão linear polinomial, a partir de um conjunto de informações, e com a adição de variáveis

independentes, busca-se o modelo que melhor explique a relação entre as variáveis inerentes a um dado

fenômeno. Já no caso não linear, na maioria das vezes, as formulações de modelos são baseadas em

considerações teóricas inerentes ao fenômeno que se tem interesse de estudar (modelagem mecanicista). A

regressão não linear é amplamente utilizada em estudos de comportamento biológico, nos quais os

parâmetros fornecem um melhor conhecimento sobre o fenômeno. Além disso, modelos não lineares

geralmente fornecem um bom ajuste com um número menor de parâmetros do que uma função polinomial

que descrevesse o mesmo fenômeno, por exemplo, e isso facilita a interpretação. E diferente dos modelos de

regressão polinomial, em que a validade das inferências é avaliada principalmente por meio de diagnósticos

de regressão, nos casos não lineares, deve-se também avaliar a extensão do comportamento não-linear do

modelo adotado.

Esta é a primeira vez que ouço falar em linear polinomial pelo que me lembro. Parece ter havido uma

mistura entre linear múltipla (várias variáveis independentes) com polinomial (vários níveis da mesma

variável). Embora sejam fundamentalmente o mesmo tipo, a primeira ocorre em um espaço pelo menos

tridimensional, enquanto a segunda ocorre em um espaço bidimensional. Não tenho ideia do que tentou

dizer com a última frase, para ser honesto. Não vi comparação entre eles na resposta, mas sim duas

descrições separadas, embora individualmente bastante boas. 0,75

14. [] (IP:281473659104419 | 07:42:15 | 21:49:14 | 06:59 | 30.537)

Explique como a escolha do delineamento pode afetar a precisão do experimento.

A escolha do delineamento mais adequado implicará na correta determinação dos efeitos do tratamento, do

acaso e do bloco (caso tenha sido usado), o que aumenta a precisão dos resultados. O ideal seria que o

delineamento reduzisse ao máximo a soma de quadrados com um gasto mínimo de graus de liberdade,

diminuindo o coeficiente de variação e aumentando a precisão da análise. Se, por exemplo, um delineamento

em blocos casualizados for escolhido erroneamente (blocos com pouca variação entre si), haverá um

consumo excessivo de GL sem uma correspondente perda de soma de quadrados, alterando o F. Quando o

GL do resíduo é baixo, são precisos maiores valores de F para que haja indicativo de diferença significativa

entre os tratamentos, e uma diferença que seria significativa em um DIC, pode não ser em um DBC.

Excelente 1

15.

Qual a importância do conceito de repetições reais?

No esquema fatorial, o tratamento é formado por um nível de cada fator, e o número de vezes em que cada

fator aparece é igual ao número de repetições reais do experimento. Como pode haver diferentes números de

níveis para cada fator, cada nível de um fator pode apresentar diferentes valores de repetições reais. Essa

informação é importante por possibilitar a avaliação dos efeitos principais dos fatores (caso não haja

interação significativa), uma vez que cada fator conta com um número diferente de repetições reais e quanto

maior o número de repetições, menor o valor de Δ, e mais fácil encontrar diferenças significativas. Dessa

forma, os fatores podem ser avaliados com diferentes níveis de precisão.

Excelente 1

16. [] (IP:281473659104419 | 07:59:07 | 21:56:25 | 57:18 | 2.452)

Um experimento foi realizado em casa de vegetação, estudando vinte e cinco inoculantes

diferentes para quatro variedades de feijão, utilizando quatro repetições. Só há 50 potes

disponíveis. Indique arranjo e delineamento mais adequados, justifique e determine as fontes

de variação e graus de liberdade. Use tab para separar as colunas

O experimento conta com dois fatores: inoculantes e variedades de feijão; cada um com 25 e 4 níveis

respectivamente. Portanto, trata-se de um esquema fatorial 4x25. No total, o experimento conta com 100

tratamentos, cada um com 4 repetições, logo, seriam necessários 400 potes. Porém, como só existem 50

potes disponíveis, o experimento teria que ser dividido em blocos, mas estes não seriam grandes a ponto de

conter todos os tratamentos, caracterizando um delineamento de blocos incompletos. Como o experimento

cumpre a premissa do delineamento de blocos incompletos parcialmente balanceados (número de repetições

menor do que o número de blocos).

Fonte de Variação Graus de Liberdade

Repetição r-1 = 3

Tratamento (não ajust.) k²-1 = 99

Blocos dentro das rep. r(k-1) = 36

Erro intrablocos (k-1) (rk-k-1) = 261

Tratamento (ajustado) k²-1 = 99

Total rk²-1 = 399

Sendo: k = √número de tratamentos = √100 = 10

r = número de repetições = 4

Embora não tenha levado em consideração o fatorial, a saída dada para o número insuficiente para conduzir

um bloco de cada vez (confesso que passou batido, e que não era meu objetivo avaliar esta parte) foi tão boa

e correta que vai levar a questão inteira. 1

17. [] (IP:281473659104419 | 07:59:40 | 21:50:57 | 51:17 | 19.872)

Qual a principal consequência do uso de parcela subdividida?

A redução da área experimental, isso pode levar a uma redução nos custos operacionais ou a uma otimização

do manejo. Assim, espera-se compensar a menor precisão inerente ao modelo de parcelas subdivididas com

um controle local mais efetivo e um manejo experimental mais eficiente, o que incrementa a precisão do

experimento.

Você percebeu que não falou porque haveria esta menor precisão inerente em canto algum de sua resposta,

não percebeu. A principal consequência é a divisão da variação do acaso em dois componentes. A sua

resposta é válida para aqueles casos em que o ganho ocorre. 0,5

18. [] (IP:281473659104419 | 08:00:14 | 21:51:37 | 51:23 | 5.193)

Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para

preveni-la.

A homocedase é uma das premissas do Modelo Linear Generalizado, pois as principais conseqüências da

heterocedase são a curtose positiva (a distribuição dos dados não se assemelha a média, resultando em uma

distribuição problemática da curva) e a assimetria (não há correlação entre os desvios e as médias). A

heterocedase seria uma variação irregular do resíduo, ou seja, o acaso variou entre os tratamentos sem ser

possível sua representatividade por um único valor. Dessa forma, não é possível isolar o efeito do acaso e

calcular o efeito dos tratamentos, o que é um grande problema. Caso o teste F seja aplicado, mesmo os dados

sendo heterocedásticos, a assimetria ou a curtose positiva afetariam a confiabilidade do teste, que tenderia a

aceitar a hipótese nula, mesmo que esta fosse incorreta (erro tipo II). A heterocedasticidade pode ser

verificada através de testes como o de Cochran, Hartley, Bartlett e Levene. E caso haja heterocedase, podem

ser empregadas transformações de dados, eliminação de outlier, ou outras soluções. Mas como nem sempre

é possível reverter a situação de heterocedase, a prevenção parte da aplicação rigorosa e correta dos

princípios experimentais (repetição, casualização, e em caso de necessidade, o controle local), de modo que

as variações ocorridas entre tratamentos (ou blocos) sejam devidas ao acaso de forma semelhante entre as

parcelas.

A primeira frase está muito parecida com outra resposta, e igualmente errada. Felizmente, para você, a

segunda frase pegou o miolo da questão em cheio, e respondeu corretamente. 1

19. [] (IP:281473659104419 | 08:01:08 | 21:53:30 | 52:22 | 101.035)

Qual a implicação do número de fatores e níveis presentes em um delineamento em relação à

precisão da avaliação de cada fator?

O número de fatores e níveis vai determinar o número de tratamentos, e, consequentemente, o tamanho do

experimento. Quanto maior o experimento, mais difícil será a aplicação de um controle local mais efetivo,

diminuindo a precisão do mesmo. Outro ponto a ser observado é que o número de fatores e níveis também

determinará o número de repetições reais, que por sua vez tem influência direta no cálculo do Δ, lembrando

que quanto maior o Δ, mais difícil encontrar diferenças significativas e menor a precisão do experimento. A

princípio, pode-se utilizar qualquer tipo de delineamento em arranjos fatoriais, porém, como os tratamentos

correspondem a todas as combinações dos diferentes níveis dos fatores, o número de tratamentos será tanto

maior quanto maior for o número de fatores e de níveis. Isso pode implicar na utilização de delineamentos

mais complexos (como o de parcelas sub-divididas), pois o experimento pode exigir grandes áreas,

inviabilizando o DIC (delineamento inteiramente casualizado) pela falta de homogeneidade, ou o DBC

(delineamento de blocos casualizados), pelas dificuldades em distribuir blocos uniformes. O delineamento

mais adequado implicará na correta determinação dos efeitos do tratamento, acaso e bloco (caso tenha sido

usado), o que aumenta a precisão dos resultados. O ideal seria que o delineamento reduzisse ao máximo a

soma de quadrados com um gasto mínimo de graus de liberdade, diminuindo o coeficiente de variação e

aumentando a precisão da análise. Se, por exemplo, um delineamento em blocos casualizados for escolhido

erroneamente (blocos com pouca variação entre si), haverá um consumo excessivo de GL sem uma

correspondente perda de soma de quadrados, alterando o F. Quando o GL do resíduo é baixo, são precisos

maiores valores de F para que haja indicativo de diferença significativa entre os tratamentos, e uma

diferença que seria significativa em um DIC, pode não ser em um DBC. Um número muito elevado de

fatores e níveis também pode aumentar o tamanho do experimento, dificultando a aplicação do controle

local.

Excelente 1

20.

Discuta as aplicações da medição repetida em solos.

Uma medição quando realizada na mesma variável ou unidade experimental em mais de uma ocasião ou

profundidade, pode ser chamada de medição repetida. Essa medição pode ser feita em cross-over (as

unidades experimentais recebem tratamentos seqüenciais); parcelas subdivididas (um nível de um fator é

alocado em uma parcela maior e todos os níveis de um segundo fator são aplicados dentro dessa parcela); ou

longitudinais (medidas repetidas no tempo) ou em profundidade. Nesses tipos de medições, há a observação

de uma ou mais variáveis respostas em uma mesma unidade experimental em diferentes condições de

avaliação (tempo, distâncias de uma origem), caracterizando medidas correlacionadas e com variâncias

heterogêneas nos diferentes tempos, em função do modo sistemático o qual as medidas são tomadas. No

caso de medidas feitas em diferentes profundidades, o que ocorre em uma camada, afeta a camada

subseqüente ou anterior, por exemplo, se um solo apresenta compactação na camada 10-20cm, é de se

esperar que sejam encontrados maior volume de raízes, e teores de água e nutrientes na camada 0-10cm. Ou

quando realizam-se várias coletas de solo ao longo do tempo, uma adubação feita no dia 10, afetará os teores

dos nutrientes nos dias subsequententes. Logo, essa ambas situações (muito comuns nas ciências do solo)

não é cumprida uma das regras básicas do Modelo Linear Generalizado: a independência; e sua análise pode

ser realizada usando a metodologia univariada, multivariada ou modelo misto, à depender de outros

critérios.

A resposta está excelente, mas não discute realmente as aplicações como eu pedi 0,75

21.

Discuta as implicações da aditividade.

O Modelo Linear Generalizado é uma equação formada pela variável resposta e o somatório da média dos

efeitos do tratamento e a variação do acaso. Em termos matemáticos, para a aplicação do MLG é necessário

que estas duas incógnitas sejam independentes, só assim será possível isolá-las. Dessa forma, a aditividade,

no MLG, garante a independência entre os efeitos do tratamento e do acaso, assim a variação de um não

afeta a variação do outro, por exemplo, o aumento na média dos tratamentos não implicará no aumento do

resíduo. A aditividade também torna possível, na análise dos resultados, atribuir a origem dos efeitos

observados, isto é, se a variação foi devida o tratamento, ou ao acaso.

Ok 1

22. [] (IP:281473659104419 | 08:02:39 | 21:54:56 | 52:17 | 20.643)

Discuta possíveis usos da correlação canônica que ajudariam a melhor entender o

relacionamento entre variáveis.

A correlação canônica é uma extensão da regressão linear, e como tal, objetiva explicar uma variável

(resposta) a partir da combinação linear de outras variáveis, no caso da correlação canônica, são no mínimo

duas variáveis. Em alguns conjuntos de dados multivariados, as variáveis já se dividem naturalmente em

dois grupos, e uma correlação canônica pode explicar a relação entre esses dois conjuntos de variáveis (que

não estão mais divididos em independente e dependente) através de um reduzido número de combinações,

maximizando as correlações possíveis entre os grupos, ou seja, não existirá nenhuma outra combinação

linear de variáveis cuja correlação seja maior que essa. A análise das variáveis canônicas (obtidas pelas

combinações lineares) pode ser de grande utilidade no estudo de dependências multivariadas, ou estudos

exploratórios, onde há um conjunto grande de variáveis, mas poucas combinações lineares de variáveis

desse conjunto são relevantes. E com a análise canônica será possível estudar aquelas combinações lineares

cuja correlação é mais elevada.

Ótimo 1

1. [] (IP:281473652443841 | 08:17:57 | 21:00:36 | 42:39 | 75.611)

Qual nível apresenta maior precisão em uma parcela subdividida e porque?

Na parcela subdividida, o nível que apresenta maior precisão é aquele que está situado na subparcela. Ou

seja, cada nível de um determinado fator representando uma subparcela apresenta maior precisão quando

comparado ao nível de um fator que está na parcela principal. Esta diferença de precisão deve-se ao fato de

que a utilização de parcelas subdivididas diminui o número de repetições das parcelas principais e,

consequentemente, reduz os graus de liberdade do resíduo que influenciarão diretamente no maior valor do

quadrado médio do resíduo. Isto pode levar a uma maior dificuldade de encontrar diferenças significativas

entre os tratamentos alocados nas parcelas principais (alto quadrado médio do resíduo, diminuindo o valor

de Fcalculado), gerando uma maior imprecisão em termos estatísticos.

Ótimo 1

2. [] (IP:281473652443841 | 08:19:52 | 21:25:59 | 06:07 | 8.021)

Considerando que tenha encontrado problemas na avaliação das premissas do Modelo Linear

Generalizado, discuta as principais técnicas usadas para resolver estes problemas.

Ao verificar que os dados de um determinado experimento apresentam problemas quanto ao obedecimento

das premissas do Modelo Linear Generalizado (independência, normalidade e homocedase dos dados),

pode-se lançar mão de algumas técnicas para tentar resolucionar os problemas:

- Transformação dos dados: Utilizada em muitos dos casos e baseia-se na realização de operações

matemáticas com os dados brutos. Essas transformações podem ser por meio do cálculo da raiz quadrada

(uma possível transformação para a correção de heterocedase em ensaios de contagem), do logaritmo de

base 10 (possível transformação para correção da dependência dos dados), arcoseno, potência, dentre outras

operações.

A lógica das transformações consiste basicamente em reduzirmos os contrastes das variações do acaso

existentes entre os tratamentos pela mudança na escala dos dados, modificando a escala, inclusive, de

valores elevados presentes para determinado tratamento, corrigindo dependência dos dados e diminuindo a

heterocedasticidade. É importante destacar que a adoção e aplicação de transformações nos dados não

modifica os resultados ou a conclusão do experimento, permanecendo ainda válidos. Contudo, com a

técnica, pode-se obter dados que atendam as premissas do modelo.

- Eliminação de um tratamento: Pode-se fazer a opção por eliminar o tratamento que reconhecidamente

esteja sendo a causa dos problemas de dependência, não normalidade e heterocedasticidade dos dados.

Entretanto, deve-se ressaltar que a identificação do tratamento é fundamental para que a ação realmente

constitua na resolução dos problemas.

- Análise e eliminação de outliers: Caso apresente-se outliers nos dados, a eliminação dos mesmos pode

melhorar problemas relacionados à heterocedasticidade, contudo, é importante analisar a causa deste dado

discrepante antes da eliminação.

- Utilização de estatística não paramétrica: A alternativa da estatística não paramétrica como correção dos

problemas deve ser encarada como a última alternativa a ser tomada, tendo em vista as implicações na qual

esta impõe na análise dos dados a exemplo da perda de informações.

ótimo 1

3. [] (IP:281473652443841 | 08:20:23 | 21:02:12 | 41:49 | 41.561)

Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor

nível de um fator".

Não. Quando adota-se o fatorial e verifica-se interação significativa entre dois fatores ou mais, não é

possível dizer qual o melhor nível de um fator envolvido na interação, de maneira isolada, justamente

porque o efeito do mesmo está sendo influenciado por outros fatores e, portanto, a resposta avaliada

(variável dependente) deve-se à interação (conjunto de fatores interagindo) e não ao efeito isolado de cada

fator. Desta forma, para os fatores envolvidos na interação significativa, poder-se-ia afirmar qual é a melhor

combinação de níveis (interação).

Embora não seja uma resposta esquisita para um pedido de discussão, a resposta está ótima para a razão de

sua negativa 1

4.

Qual a importância da interação?

A interação conforma-se como uma possibilidade quando adotamos o fatorial para a organização dos

tratamentos de um experimento, considerando que a sua ocorrência se dá ao fato de existir mais de um fator

influenciando na resposta de uma variável em estudo. Em outras palavras, na adoção do fatorial, a existência

de mais de um fator, pode gerar ou não interação e, uma vez ocorrida, a mesma apresenta uma importância

fundamental. Sua importância, em termos estatísticos, reside no fato de que na presença de interação

significativa, não há sentido discutir cada fator isoladamente, já que a resposta da variável dependente é

atribuída ao conjunto de fatores e não a um fator isoladamente. Isto é, se fatores interagindo mostram

resultados significativos, a discussão acerca do efeito isolado de cada fator envolvido perde o sentido, uma

vez que seu efeito influencia e é influenciado por outros fatores. Portanto, a discussão deve concentrar-se em

entender e explicar como um fator influencia o outro.

Em termos práticos, a utilização de mais de um fator (variável independente) em um determinado

experimento tem por objetivo simular de maneira mais coerente o que, de fato, poderia ocorrer na realidade,

considerando que no ambiente, diversos fatores interagem, influenciando na resposta de parâmetros

observados. Desta forma, a ocorrência de interação significativa pode refletir este raciocínio (inter-relação

de parâmetros no ambiente) em condições experimentais. Outro ponto que deve ser ressaltado é que a não

ocorrência de interação em um experimento em fatorial indica que para aqueles fatores estudados, não

observou-se influência de um sobre o outro, contudo, isto não anula o fato de que este fator poderia ser

influenciado por outros que não estão sendo objetos de estudo.

Para exemplificar a importância da interação significativa em experimentos, avaliou-se o efeito da aplicação

de doses de adubo mineral (N, P, K) (0, 50 e 100% da recomendação para a cultura), adubo orgânico (torta

de filtro, resíduo oriundo da fabricação de açúcar) (0, 20, 40, 60 e 80 t ha-1) e a associação dos dois na

produtividade de uma variedade de cana-de-açúcar (fatorial 3 x 5). Observou-se que as plantas que

receberam a associação da dose de 40 t ha-1de torta de filtro com 50% da dose recomendada de adubo

mineral equipararam a produtividade de cana obtida apenas com a dose total de N, P, K recomendada. Neste

caso, a conjugação dos adubos reduz o custo da compra de fertilizantes minerais, já que parte pode ser

substituída por um resíduo da própria área, além disso, há a redução da aplicação de fertilizantes minerais

que podem contaminar o solo, quando utilizados em excesso.

Se isto não tiver sido copiado de algum canto, ficou com toda a cara… a possibilidade de uso da literatura

não indica que seja desejável copiá-la, já que costume de casa vai à praça, e isto é considerado plágio na

literatura científica. Fora isto, excelente 1

5. [] (IP:281473652443841 | 08:21:31 | 21:04:24 | 42:53 | 2.694)

Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para

preveni-la.

A presença de heterocedase constitui-se como um dos problemas que impedem a realização da análise de

variância dos dados de um experimento. Isto acontece porque dados heterocedásticos significam que as

variâncias dos tratamentos não são iguais e, portanto não obedecem à premissa do Modelo Linear

Generalizado (MLG) que trata sobre a homocedase (presença de variâncias iguais) como uma exigência para

a ANOVA. Caso hajam variâncias não homocedásticas, não há como diferenciar o efeito do tratamento e o

efeito do acaso e, consequentemente, não é possível realizar a análise de variância.

A prevenção de heterocedasticidade consiste em uma adequada condução do experimento, utilizando o

mesmo número de repetições para todos os tratamentos, além da correta aplicação do controle local ou não,

avaliando criteriosamente as condições do ambiente. O objetivo é de proporcionar as condições mais

homogêneas possíveis para todos os tratamentos. Estes cuidados, de maneira geral, tendem a prevenir a

ocorrência de variâncias desiguais. Ainda saliento que o número de repetições constitui-se como a melhor

proteção contra os efeitos da heterocedasticidade. Uma vez ocorrida em dados experimentais, pode-se lançar

mão de transformações numéricas dos dados na tentativa de tornar as variâncias constantes.

A resposta está um pouco circular, já que simplesmente não tenta explicar porque a heterocedase não

permite a independência entre acaso e tratamento. Fora isto, ok. 1

6. [] (IP:281473652443841 | 08:25:16 | 21:05:24 | 40:08 | 4.503)

Debata os principais prós e contras das diferentes alternativas para análise de medições

repetidas.

Existem algumas alternativas para a análise de medições repetidas que seguem abaixo:

- Análise de cada variável separadamente: um dos procedimentos mais comumente utilizados para análises

que têm como variável as profundidades do solo, entretanto, configura-se como uma alternativa equivocada,

neste caso, devido à dependência existente entre as diferentes camadas (profundidades), isto é, a inter-

relação existente entre o que acontece na profundidade de 20 – 40 cm com o que ocorre na camada de 0 – 20

cm;

- Uso de análise multivariada: considera cada profundidade ou tempo (data de avaliação) como uma

variável, entretanto, analisa todos os dados conjuntamente. Dentre as vantagens de sua utilização, há a

redução no número de testes a serem feitos consequenciando na redução das chances de cometer o erro tipo

I, além disso, reconhece a ligação existente entre as variáveis, refletindo esta interação nos resultados.

Porém, como desvantagem observa-se que há um certo grau de complexidade na interpretação da análise

que conjuga todas as variáveis de uma única vez, dificultando o entendimento sobre como as variáveis se

relacionam e sobre a natureza das variáveis dependentes que foram significativas.

- Parcela-subdividida: Esta alternativa apresenta algumas limitações referentes à sua validade para algumas

variáveis, enquanto que para outras, isso não se procederá. Este procedimento é realizado através do teste de

esfericidade de Mauchly, no qual uma variável é submetida e caso não seja significativo, pode-se inferir que

a mesma é independente.

- Modelo misto: É uma alternativa que assim como a multivariada reconhece a existência de dependência

entre as medições de uma variável, entretanto, é mais simples a interpretação dos resultados e semelhante a

uma análise fatorial o que simplifica muito quando comparado com a multivariada. Não apresenta

coeficiente de variação.

Excelente, mas apenas para clarificar, existe outra desvantagem inerente ao uso de análises separadas, que é

o aumento cumulativo da chance de erros tipo I. Além disto, a dependência entre as variáveis pode ser

corrigida durante a discussão dos diferentes resultados pelo reconhecimento do pesquisador, já que a

discussão é inerentemente independente. 1

7. [] (IP:281473652443841 | 08:29:30 | 21:06:50 | 37:20 | 2.163)

Um experimento foi conduzido em laboratório estudando a resistência de 100 estirpes

rizobianas a três temperaturas. Serão utilizadas dez repetições e as estufas bacteriológicas

disponíveis só cabem 500 placas de petri de cada vez. Indique arranjo e delineamento mais

adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para

separar as colunas

Mesmo sabendo que as condições em laboratório são homogêneas no que diz respeito à temperatura,

umidade e fotoperíodo, existem limitações quanto à realização do experimento: Indisponibilidade de

equipamento e tempo de avaliação.

Considerando 3000 unidades experimentais (100 estirpes x 3 temperaturas x 10 repetições), não há como

colocar todas as placas de uma única vez na estufa bacteriológica que somente tem capacidade para 500

placas por vez. Além disso, é inviável a avaliação de 3000 placas de petri por dia, considerando apenas um

avaliador (considera-se um único avaliador para diminuir os erros experimentais). Desta forma, o

delineamento mais adequado seria em blocos casualizados, visando obter uma maior homogeneidade quanto

à avaliação. O arranjo dos tratamentos adotado é o fatorial simples.

O número de blocos será em função da capacidade da estufa bacteriológica e do tempo que o operador

necessitará para avaliar um determinado número de placas de petri ao dia. Portanto, serão 10 blocos, onde

cada bloco terá 1 repetição de cada um dos 300 tratamentos (100 estirpes x 3 temperaturas x 1 repetição =

300). Um bloco (300 unidades experimentais) será avaliado a cada dia.

Sabendo-se que:

- t: número de tratamentos = 300

-b: número de blocos = 10

- r: número de repetições = 10

O esquema da análise de variância segue abaixo:

Fonte de variação GL

Tratamento 299

Bloco 9

Resíduo 2691

Total 2999

Considerando que cada estufa fica com apenas uma temperatura de cada vez, e portanto todas as placas

dentro ficam necessariamente com a mesma temperatura é simplesmente impossível usar o fatorial simples,

exceto com uma estufa por placa. Isto indica o uso de parcela subdividida, em blocos. Infelizmente, assim

como todas as respostas até este ponto, reconheceu o fatorial na composição dos tratamentos, mas não na

análise de variância. 0

8. [] (IP:281473652443841 | 08:32:20 | 21:07:23 | 35:03 | 2.472)

Devemos tomar algum cuidado em particular ao combinar os fatores para a formação dos

tratamentos?

Sim. Deve-se ter um cuidado especial quando o nível de um fator for considerado zero (0), podendo ter

tratamentos iguais, contabilizando mais de uma vez no experimento o mesmo tratamento. Para exemplificar,

tem-se a seguinte situação:

Em um experimento avaliando fontes e doses de N em plantas de milho, adotou-se erroneamente o arranjo

fatorial 4 x 5 onde temos 4 fontes de N (nitrato de potássio, nitrato de amônio, ureia, adubo orgânico ) com 5

doses de N (0, 2, 4, 6, 8 t ha-1 de N no solo), note que um dos níveis do fator dose é zero (0) o que resultará

em quatro tratamentos iguais (0 para nitrato de potássio, 0 para nitrato de amônio, 0 para ureia e 0 para

adubo orgânico) e consequentemente problemas na análise estatística, considerando a situação em que a

dose zero das diferentes fontes apresenta diferença a um certo nível de significância, tornando-se

complicado explicar a natureza desta diferença.

A forma mais correta de se proceder é adotar a dose zero (0) como tratamento adicional ao fatorial, ou seja,

4 (fontes) x 4 (doses) + 1 (0 t ha-1 = controle) em que a dose 0 será avaliada fora do fatorial.

Excelente, com apenas uma ressalva que é o uso de toneladas de N por hectare…. 1

9. [] (IP:281473652443841 | 08:32:46 | 21:08:21 | 35:35 | 6.596)

Como podemos determinar o número de unidades amostrais em um projeto a ser conduzido

em área sem informação prévia?

O número de unidades amostrais que deve ser adotada em um determinado experimento leva em

consideração a acurácia desejada, ou seja, a precisão e minuciosidade exigida pelo experimento. Além disso,

deve-se considerar a variabilidade do material amostrado (solo, pessoas, espécies de plantas, etc.). Outros

fatores que contribuem para a determinação do número de unidades amostrais é o custo que pode encarecer

a amostragem. Um ponto que merece destaque é saber diferenciar réplica de unidade amostral, já que a

primeira refere-se à retirada de uma submostra de uma amostra coletada, apresentando possíveis diferenças

somente quanto à análise em laboratório. Já a unidade amostral apresenta uma característica intrínseca e, se

comparada com outra unidade amostral do mesmo local, provavelmente, as mesmas apresentarão diferenças

devidas ao local de coleta.

Para a determinação do número de unidades amostrais, quando não há informação prévia sobre a área, pode-

se fazer uso da seguinte equação:

n = 4 σ2/ L2 , onde:

- n: número de unidades amostrais

- σ2: variância

- L: erro máximo tolerado

Vale ressaltar que este número de unidades amostrais deveria ser determinado para cada variável em estudo,

dependendo da precisão desejada para cada uma delas. Além disso, para a obtenção do valor da variância,

faz-se necessária uma coleta prévia.

Se eu não tenho informação prévia, de onde aparece a variância? A ideia é uma amostragem inicial

justamente para definir a variância amostral, e assim poder definir adequadamente o número de amostras.

0,75

10. [] (IP:281473652443841 | 08:33:37 | 21:26:54 | 53:17 | 34.845)

Discuta diferentes critérios para seleção da melhor regressão linear múltipla.

Com o objetivo de selecionar a melhor regressão linear múltipla, partindo do pressuposto de que a regressão

escolhida descreverá satisfatoriamente a relação existente entre variáveis independentes e a variável

resposta, faz-se necessário lançar mão de critérios para garantir a escolha por um modelo adequado. Em

outras palavras, é preciso adotar requisitos para avaliar o melhor modelo que ajuste um determinado

conjunto de dados.

Baseando-se nesta realidade, existem alguns critérios que são comumente adotados/ utilizados para avaliar

os modelos, dentre os existentes, é fundamental citarmos alguns deles:

- Coeficiente de determinação (R²): O R² configura-se como um coeficiente que mede o quanto da variação

de y (variável dependente) pode ser explicada pela equação de regressão. Ou seja, através do R², pode-se

inferir se determinado modelo é adequado ou não para explicar a variação de uma determinada variável em

estudo.

O coeficiente de determinação pode assumir valores de 0 a 1, salientando que valores próximos de 1 atestam

que a relação entre variáveis independentes e variável dependente (ou variável resposta) podem ser

satisfatoriamente explicadas através da regressão encontrada, indicando bom ajuste. Já a observação de R²

baixos, próximos de zero, denotam que o modelo (representado pela equação) não consegue explicar a

relação existente entre as variáveis.

Desta forma, utiliza-se o R² como critério, considerando que quanto maior este for, melhor é o ajuste do

modelo. Para exemplificar, podemos considerar a comparação de modelos concorrentes (modelos que

explicam uma mesma relação), caso determinasse o coeficiente de determinação como critério de escolha

para o melhor modelo, escolheria o modelo que apresentasse maior R².

Entretanto, vale salientar que o R² é sensível ao aumento de preditores (variáveis independentes) no modelo,

observando-se também um aumento do mesmo, contudo, este aumento pode não corresponder à realidade, já

que nem todas as variáveis preditoras são necessariamente efetivas (possuem efeito significativo) para a

predição da variável resposta. Desta forma, o aumento do R² não está associado somente ao efeito das

variáveis, mas também ao número das mesmas no modelo.

- Coeficiente de determinação ajustado: Baseada na limitação anteriormente apresentada e discutida pelo

coeficiente de determinação (R²), o coeficiente de determinação ajustado não aumenta obrigatoriamente com

o aumento do número de variáveis independentes, já que em seu valor somente influi aqueles preditores que

apresentam efeito significativo (o efeito significativo dos preditores é obtido através da análise de variância).

Desta forma, pode-se pensar que o R² ajustado somente aumentará se a variável ou variáveis adicionadas ao

modelo apresentarem efeitos significativos. A partir disso, muitas vezes, é preferível utilizar o coeficiente de

determinação ajustado em relação ao R² como critério de escolha do melhor ajuste, considerando também

que quanto maior é o seu valor, melhor o modelo explica a relação entre as variáveis em estudo.

- Soma dos quadrados do resíduo (SSR): critério que baseia-se na observação da soma dos quadrados do

resíduo, sabendo-se que quanto menor o SSR, melhor o modelo descreve a relação entre preditores e

variável resposta. Contudo, o uso do SSR apresenta uma limitação: seu valor depende do tamanho da

amostra, ou seja, para amostras pequenas, a variação do resíduo diminuirá muito, afetando os graus de

liberdade do resíduo e, consequentemente, afetando a relação existente entre variação do acaso e efeito de

tratamento. Uma forma de minimizar problemas deste tipo é o uso do quadrado médio dos resíduos como

critério de escolha.

- Teste F: Baseia-se na observação dos valores de F(calculado) dos modelos analisados, partindo do

pressuposto de que quanto maior o Fcalculado, melhor a equação de regressão explica o comportamento das

variáveis. Esta variação do valor de F é em função da relação entre o quadrado médio da regressão e o

quadrado médio do resíduo, com isso, observa-se que o aumento do F(calculado) está diretamente

relacionado com a diminuição do QMR (F e QMR são inversamente proporcionais).

- Cp: Critério preconizado Mallows e que está baseado no erro quadrático médio dos valores ajustados. Para

calcular este critério, utiliza-se a seguinte fórmula:

Cp=(SSR (p))/(MSR (pmax.))- [N-2(p+1)]

Onde:

SSR – Soma dos quadrados do resíduo

MSR – Quadrado médio do resíduo

N – número de parcelas experimentais

p – número de parâmetros

Vale salientar que o modelo mais adequado será escolhido em função do número de Cp calculado que mais

se aproxime do valor dos parâmetros (p +1). Por exemplo, se considerarmos 4 parâmetros (variáveis

independentes) para observar o comportamento de y (variável dependente), e calcularmos o Cp de dois

modelos concorrentes, onde o Cp1 = 3,444 e o Cp2 = 7,6700, optaríamos pelo modelo que apresentasse o

Cp1, já que este aproxima-se mais do número de parâmetros (4).

- AIC (Critério de informação de Akaike): Configura-se como um critério de seleção do melhor modelo,

baseando-se na teoria da informação, considerando que quanto menor o valor de AIC, mais a equação

(modelo) explica a relação entre as variáveis.

Este critério leva em consideração a qualidade da informação bem como a qualidade da ligação entre as

variáveis e o número de preditores que estão no modelo.

excelente 1

11. [] (IP:281473652443841 | 08:34:01 | 21:10:38 | 36:37 | 1.753)

Discuta a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer todos

os detalhes do trabalho"

A escolha do delineamento adequado está diretamente relacionada com as informações e estrutura requerida

pelo trabalho, a começar pelo próprio ambiente no qual será executado o experimento. A presença e

reconhecimento da heterogeneidade do local influem na escolha do delineamento em blocos ou inteiramente

casualizado, já que considera-se a possibilidade de aplicar ou não o controle local.

Outro fator que também deve ser considerado é a estrutura requerida pelo experimento. Caso haja limitação

quanto à disponibilidade de material (placas de petri, vasos, etc.) e/ou equipamentos (estufa, BOD,

autoclave, etc.) deve-se verificar o delineamento para que as mesmas condições sejam dadas a todos os

tratamentos. Além disso, existe a própria capacidade de avaliação do experimento por parte do pesquisador

que também deve ser considerada no momento de escolha do melhor delineamento.

Caso estas informações não sejam levadas em consideração, corre-se o risco de escolher erroneamente o

delineamento, podendo trazer problemas na identificação de diferenças entre os tratamentos. Sendo assim, é

crucial conhecer detalhadamente o experimento para garantir a adoção do delineamento adequado e,

consequentemente, o sucesso do trabalho.

Excelente 1

12. [] (IP:281473652443841 | 08:34:40 | 21:12:27 | 37:47 | 107.954)

Explique porque podemos considerar que o nível de significância de uma regressão é menos

crítico do que sua importância intrínseca.

Na regressão quase sempre teremos a associação de altos níveis de importância (expressos pelo valor “r2” na

regressão) e significativos (1, 5 e 10% - chances de se cometer o erro tipo I), então, desta forma, na

regressão torna-se menos importante o reconhecimento da significância em comparação ao tamanho da

importância científica (coeficientes de determinação refletem a importância intrínseca) dos respectivos

dados avaliados. Portanto, é mais comum visualizar situações onde os dados apresentam significância

estatística (p.ex. dados significativos a 5 %) com níveis de importância baixos (baixos coeficientes de

determinação), os quais acabam fornecendo pouca ou nenhuma informação sobre o fenômeno ou

comportamento em estudo (relacionando às ciências agrárias, já que em outras áreas como medicina,

reduzidos valores de importância são satisfeitos e aceitos), do que com dados que apresentem elevada

importância (proporcionando certo grau de entendimento do fenômeno em análise), contudo, não

significativos.

Ótimo 1

13.

Qual a importância do conceito de repetições reais?

O número de repetições reais está relacionado ao fato de que o número de repetições para cada fator (em um

arranjo fatorial) em um mesmo experimento pode ser diferente, definindo-se, então, como o número de

vezes que um nível de um fator aparece no experimento. Com isso, é possível determinar o número de

repetições reais através da seguinte fórmula:

Número de repetições reais = r x R, onde:

r – repetição dos tratamentos

R – repetição do fator

A importância do número de repetições reais reside no fato da possibilidade de estudar os efeitos principais

dos fatores, caso não ocorra interação entre eles, ocorrendo um maior número de repetições para cada fator,

além daquelas repetições dos tratamentos. Pode-se até associar que com um número maior de repetições, há

um aumento da precisão do experimento.

Excelente 1

14. [] (IP:281473652443841 | 08:35:28 | 21:15:27 | 39:59 | 3.041)

Um experimento foi conduzido em um campo plano com solo e vegetação homogêneos,

estudando vinte adubações verdes, que receberam ou não herbicida, em milho. O experimento

terá um total de 3 repetições. Indique arranjo e delineamento mais adequados, justifique e

determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

Mesmo o experimento sendo conduzido em campo, o exemplo indica que o solo e a vegetação são

homogêneos e, portanto, o delineamento indicado é o Inteiramente Casualizado. O arranjo fatorial é em

parcelas subdivididas, onde a aplicação ou não de herbicida constituem as parcelas principais (necessita-se

de uma grande área para cada nível do fator herbicida, já que a aplicação de herbicida pode influenciar o

tratamento sem a presença do mesmo, pelo efeito de deriva) e as adubações verdes (20) compõem as

subparcelas. Desta forma, cada parcela principal terá 20 subparcelas (20 adubos verdes), totalizando 40

tratamentos (2 aplicação ou não de herbicida x 20 adubos verdes). As parcelas principais serão sorteadas no

local e, dentro de cada parcela principal, as subparcelas (20 adubos verdes) serão sorteadas. O experimento

apresenta 3 repetições.

A análise de variância é realizada em duas partes:

(Tratamentos das parcelas principais)

Fonte de variação GL

Tratamento 1

Resíduo 4

Parcela 5

(Tratamentos das subparcelas)

Fonte de Variação GL

Tratamento 19

Interação Axb 19

Resíduo 76(T- parcela – trat.subp. – Interação)Total 119

Aleluia, salvou-se uma alma… finalmente alguém reconheceu o fatorial e indicou isto na análise de

variância. Só uma ressalva, que o tratamento é a combinação de um nível de cada fator, não cada fator

isoladamente como seu esquema parece indicar. Fora isto, gostei do raciocínio para uso da subdividida,

embora eu provavelmente utilizasse fatorial, com alguma barreira para evitar a deriva do herbicida. 1

15. [] (IP:281473652443841 | 08:37:33 | 21:18:22 | 40:49 | 5.097)

Discuta desvantagens derivadas do uso de muitos níveis de cada fator simultaneamente.

Um dos problemas observados é o grande número de tratamentos que surgem, o que refletirá em

dificuldades na implantação e condução do experimento.

Quanto à implantação, se estivermos falando de um grande número de tratamentos (7 fontes x 10 doses = 70

tratamentos x 4 repetições = 280 unidades experimentais) será necessário uma área relativamente extensa,

caso fosse experimento em campo, para podermos comportar os tratamentos com suas respectivas

repetições. Além do custo elevado para implantação assim como a mão de obra requerida para a execução

do trabalho.

Já no que diz respeito à condução do trabalho, verifica-se a limitação do pesquisador em avaliar o

experimento, tendo em vista a dimensão do experimento(no caso do exemplo acima) e elevado número de

unidades experimentais, proporcionando desta forma uma heterogeneidade na avaliação, que potencialmente

promoverá erros na coleta e análise de dados.

Ok 1

16. [] (IP:281473652443841 | 08:38:06 | 21:19:11 | 41:05 | 1.694)

A escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os

tratamentos?

A escolha do delineamento está intrisecamente ligada à aplicação ou não do controle local, bem como a

forma de aplicação do mesmo, tendo por objetivo, diminuir a variação do acaso, considerando que quanto

melhor controla-se as variações do acaso, maiores são as chances de que sejam encontradas diferenças

significativas entre os tratamentos, uma vez que torna-se mais seguro confirmar que os efeitos são

provenientes dos tratamentos e não da variação do acaso. Este fato aumenta, portanto, a precisão do

experimento.

Para o Delineamento Inteiramente Casualizado (DIC), pela homogeneidade do ambiente ou pela ausência de

informações acerca da heterogeneidade não faz uso do controle local, configurando-se como um

delineamento simples, com apenas duas fontes de variação (tratamento e variação do acaso). Já o

Delineamento em Blocos Casualizados (DBC), há a formação de blocos com o objetivo de tornar um

ambiente heterogêneo em subgrupos mais homogêneos, permitindo a análise apenas do efeito dos

tratamentos, ressaltando a existência de mais uma fonte de variação: os blocos.

Esta explanação torna-se importante para visualizarmos que a escolha do delineamento é em função do

ambiente e caso esta escolha seja realizada equivocadamente, o experimento pode apresentar algumas

imprecisões.

Caso haja a escolha pelo DIC quando deveria escolher o DBC, deixa-se de aplicar o controle local por

considerar que a área é suficientemente homogênea para avaliar apenas o efeito dos tratamentos. Contudo, a

heterogeneidade da área, não devidamente reconhecida, poderá influenciar na relação existente entre efeito

do tratamento e efeito da variação do acaso. Consequentemente, pode-se atribuir erroneamente a ausência de

efeito dos tratamentos, quando na verdade existe a diferença ou que há diferenças entre os tratamentos,

quando, de fato, esta variação é devida ao acaso.

Caso a escolha seja pelo DBC quando deveria ter optado pelo DIC, há um maior consumo de graus de

liberdade (GL) na aplicação do controle local (blocos) desnecessariamente. O consumo de GL pela

aplicação do bloco, consequencia em aumento do Quadrado Médio do Resíduo, que afetará o valor de

Fcalculado, subestimando-o. A subestimação pode acarretar em conclusões erradas sobre o experimento,

como por exemplo, inferir que os tratamentos não diferiram entre si, já que o resíduo mostrou-se muito

maior e, portanto, a variação ocorrida no experimento pode ser satisfatoriamente explicada pelos erros

experimentais.

Excelente 1

17. [] (IP:281473652443841 | 08:38:00 | 21:19:42 | 41:42 | 1.671)

Descreva situações em que o uso da multivariada seria interessante em trabalhos de

experimentação.

A utilização da análise estatística multivariada apresenta-se como uma ferramenta que permite a obtenção de

informações mais completas e, sendo corretamente interpretada, resultados mais condizentes com a

realidade, uma vez que a mesma considera vários parâmetros, avaliados ao mesmo tempo, influenciando na

resposta de uma determinada variável em estudo. Esta lógica é baseada no que acontece, de fato, na

natureza, reconhecendo que vários fatores interagem entre si, influenciando-se mutuamente.

Baseado nisto, atualmente, existem diversos trabalhos experimentais que utilizam a estatística multivariada

para a obtenção de resultados mais consistentes e amplos:

- Análise multivariada na avaliação da compactação de um latossolo vermelho cultivado com milho (Freddy

et al., 2008): neste experimento, a análise multivariada foi útil para identificar quais os parâmetros da planta

estão relacionados com a variação da densidade do solo ao longo do perfil do solo.

- Divergência genética entre cultivares de mandioca, avaliando dez características morfoagronômicas e duas

variáveis relacionadas à qualidade das raízes (Vidigal, 1994). A abordagem na análise multivariada permitiu

a formação de grupos de cultivares semelhantes,e ainda identificou as características que menos

contribuíram para a divergência genética.

- Parâmetros para a avaliação da dinâmica da drenagem e do relevo (Carvalho, et al., 1990). O uso da

multivariada permitiu a avaliação da ação conjunta de parâmetros morfométricos da bacia hidrográfica na

rede de drenagem e do relevo.

Além destes exemplos, existem uma infinidade de outras situações experimentais que poderiam

coerentemente utilizar a análise multivariada para avaliar os dados obtidos.

Gostei do uso da literatura para basear suas escolhas, embora a ideia da pergunta fosse você desenvolver

situações, preferencialmente em solos. 1

18. [] (IP:281473652443841 | 08:38:53 | 21:20:17 | 41:24 | 1.88)

Discuta os principais caminhos para validação de modelos, e sua implicação na regressão.

Com o objetivo de validar os modelos que expliquem um determinado fenômeno, faz-se necessário escolher

algum dos caminhos listados abaixo. Através destes caminhos, possibilidades ou estratégias, é possível

verificar, dentre uma variedade de modelos possíveis, aquele que melhor se adéqua à situação em estudo:

- Testar todas as regressões possíveis: A partir desta técnica, é possível testar todos os modelos possíveis que

poderiam explicar o maior número de variáveis possível, onde para um número de parâmetros (p), existe 2p

– 1 de modelos possíveis. Desta forma, há uma garantia de que há uma solução para qualquer conjunto de

variáveis utilizadas, sendo necessário, apenas, avaliar o critério de escolha para chegar no modelo mais

adequado. Entretanto, existe limitação de informações quando utiliza-se esta técnica, uma vez que o modelo

selecionado somente atende para àquela condição específica, considerando um número p de parâmetros,

para aqueles dados em particular. Isto implica em não sabermos se todos os parâmetros considerados

contribuem e como contribuem (em maior ou menor grau) para o comportamento da variável dependente, ou

seja, os parâmetros são considerados independentemente de sua importância.

Além disso, existe uma dificuldade no entendimento estatístico e matemático quando o número de

parâmetros aumenta, complicando o manejo da regressão, além de aumentar a chance de cometer o erro tipo

I.

- Eliminação para trás: Técnica baseada em testar todos os parâmetros gerando todos os modelos possíveis,

contudo, diferentemente do teste de todas as regressões possíveis, a eliminação para trás testa também todos

os modelos com p-1 variáveis, ou seja, a medida que se retira uma variável, faz-se um novo teste. Vale

ressaltar que as variáveis retiradas são aquelas consideradas menos importantes e o teste é cessado quando a

retirada de uma variável implica na perda de significância do modelo ou na perda razoável de sua

importância. Portanto, considera-se que retirar variáveis de pouco ou nenhum efeito não traz ônus para a

significância do modelo, ou seja, com ou sem estas, a explicação do comportamento não é comprometida.

- Seleção para frente: Baseia-se no mesmo princípio da eliminação para trás, ou seja, na desconsideração das

variáveis menos importantes, todavia, o início do teste é inverso, considerando primeiramente uma variável

e a cada adição de uma nova variável, faz-se o teste.

- Stepwise (forward): Pode ser considerada uma técnica que reúne os melhores pontos das outras técnicas

discutidas anteriormente. Baseia-se na seleção para frente, ou seja, inicia-se o teste com uma variável e vai

adicionando-se variável a variável, mediante um teste para cada adição. A vantagem envolvida no stepwise é

que as variáveis podem ser retiradas ou adicionadas, verificando a melhor combinação possível e,

consequentemente, o melhor modelo. Isto não é verificado nas técnicas anteriores em que uma vez retirada

uma variável, não é possível colocá-la novamente.

Apesar da vantagem explícita, vale salientar que existem algumas limitações quanto ao seu uso,

principalmente por aumentar razoavelmente a chance de cometer o erro tipo I quando comparada, por

exemplo, ao teste que considera todas as regressões possíveis, já que há um aumento no número de testes

realizados.

-Stepwise (Backward): Mesmo princípio da stepwise (forward) na medida em que combina variáveis,

podendo retirá-las ou adicioná-las em busca do melhor modelo, contudo, o teste é baseado na eliminação

para trás, ou seja, inicia-se o teste com todos os parâmetros e retira-se variável por variável mediante o teste.

Assim como o forward, a utilização desta técnica implica em uma maior chance do erro tipo I.

Dentre as várias possibilidades listadas, é importante ressaltar que a escolha de uma em detrimento da outra

pode aumentar ou não substancialmente a chance do erro tipo I. E uma vez o mesmo sendo cometido,

compromete todas as inferências tomadas através da regressão escolhida erroneamente.

Excelente 1

19. [] (IP:281473652443841 | 08:39:18 | 21:21:41 | 42:23 | 5.803)

Quais são os principais pontos que devemos avaliar ao estudar uma regressão?

No estudo de uma regressão, seja linear, seja não linear, é importante avaliarmos o quanto a equação

descreve a relação existente entre duas variáveis. Para isso, é preciso observar os componentes das equações

(parâmetros), o coeficiente de determinação (r2), que permite inferir o quanto daquela variação em y pode

ser explicada pela equação de x, sabendo-se que quanto maior o r2, maior é o grau de confiança da equação,

ou seja, maior é a probabilidade da equação de regressão descrever satisfatoriamente o comportamento de

um determinado fenômeno biológico. Além disso, tem-se o coeficiente de correlação (r) que explica o grau

de ligação existente entre duas variáveis.

Para ilustrar o que foi discutido acima, podemos utilizar uma equação de regressão linear, observando os

seguintes componentes:

y=a+bx+e

Onde:

y – variável dependente;

a – coeficiente linear, configurando-se como o valor de y, quando x é zero;

b – coeficiente angular, ou seja, indica a inclinação da regressão, medindo a direção e magnitude da relação.

Para a primeira característica, é possível visualizar quando as duas variáveis estão correlacionadas

positivamente, a inclinação também será positiva, já quando as duas variáveis estão correlacionadas

negativamente, a inclinação será negativa. Para a magnitude, podemos inferir que para cada acréscimo

unitário na variável (X), a variável dependente (y) mudará por b (inclinação);

e – variação do acaso.

Além destes parâmetros visualizados na equação, tem-se o coeficiente de determinação (r2) e o coeficiente

de correlação (r).

Um outro parâmetro que deve ser observado é a significância daquele efeito, já que sem esta exigência

satisfeita, não há como construir uma regressão. O mais comum é observar que mesmo com coeficientes de

determinação baixos, há ainda a significância dos dados. Já a condição inversa, coeficiente de determinação

alto e não significativo, não é comum.

Vale salientar, entretanto, que a avaliação apenas do coeficiente de determinação e significância não basta

para inferir sobre uma análise de regressão, sendo necessário avaliar os parâmetros que, de fato, irão dizer

como ocorre esta relação, isto é, o quanto os parâmetros a e b influenciam na estimativa da variável

dependente.

Excelente 1

20. [] (IP:281473652443841 | 08:39:44 | 21:22:17 | 42:33 | 1.669)

Será realizado um projeto comparando os efeitos de corte cru ou queimado da cana sobre as

características físicas (densidade, capacidade de retenção de água, resistência à penetração,

condutividade hidráulica saturada), químicas (pH, Al, H+Al, P, K, Ca, Mg, saturação por

bases, CTC, C orgânico) e microbiológicas do solo (população de nematóides, respiração,

biomassa, N e P microbianos). A cana será implantada e ao longo de todo o seu ciclo cultural

(quatro cortes com intervalo de um ano) será submetida aos mesmos tratamentos de corte. O

experimento será conduzido em cinco solos distintos, que serão considerados como repetições.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

Neste exemplo acima, o delineamento mais adequado é em blocos casualizados, uma vez que a área é

heterogênea (experimento em campo), identificando-se 5 solos distintos, podendo cada bloco está situado

em um tipo de solo, perfazendo 5 blocos.

Caso o objetivo do estudo fosse avaliar a influência dos solos nas respostas da variáveis dependentes (ou

seja, os tipos de solo sendo considerados como tratamentos), o número de repetições seria maior que 1 para

cada tipo de solo e o arranjo fatorial simples seria o mais indicado. Contudo, os mesmos são considerados

repetições e, portanto, não há como afirmar que o efeito do corte da cana (crua ou queimada) foi melhor ou

pior para um determinado tipo de solo, uma vez que só tem uma repetição de cada solo (não há como

afirmar se o efeito observado foi devido ao tratamento ou ao acaso).

Desta forma, considerando os solos como repetições, serão 5 blocos, onde cada bloco conterá os 2

tratamentos (cana crua e cana queimada).

As tabelas serão construídas com o objetivo de observar o efeito do tipo de corte de cana (cru e queimada)

sobre as características físicas, químicas e biológicas do solo de uma forma geral:

- tabela 1. Efeito do tipo de corte da cana nas características físicas do solo – nas colunas, especificar os

blocos (solos), os tratamentos (cana crua ou queimada) e a identificação das propriedades físicas avaliadas

(densidade, capacidade de retenção de água, resistência à penetração, condutividade hidráulica saturada).

Nas linhas dispor os valores das características físicas avaliadas.

- tabela 2. Efeito do tipo de corte da cana nas características químicas do solo – nas colunas, especificar os

blocos (solos), os tratamentos (cana crua ou queimada) e a identificação das propriedades químicas

avaliadas (pH, Al, H+Al, P, K, Ca, Mg, saturação por bases, CTC, C orgânico). Nas linhas dispor os valores

das características químicas avaliadas.

- tabela 3. Efeito do tipo de corte da cana nas características microbiológicas do solo – nas colunas,

especificar os blocos (solos), os tratamentos (cana crua ou queimada) e a identificação das propriedades

químicas avaliadas (população de nematóides, respiração, biomassa, N e P microbianos). Nas linhas dispor

os valores das características microbiológicas avaliadas.

Vale salientar que cada variável analisada apresentará um coeficiente de variação distinto, assim como será

realizado o teste F para avaliar a significância de tal parâmetro, e os testes de homocedase, normalidade e

independência antes da realização da análise de variância.

Meus parabéns. 1

21. [] (IP:281473652443841 | 08:40:26 | 21:23:00 | 42:34 | 42.086)

Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as

consequências desta diferença.

A hipótese configura-se como um elemento fundamental em qualquer projeto de pesquisa, tendo em vista

que toda pesquisa baseia-se nela. Ou seja, a hipótese, por ser resultado de um raciocínio indutivo, concretiza

a ideia que envolve o experimento através de uma afirmativa, que precisa ser testada, isto é, avaliada no

sentido de concluir se a mesma é verdadeira ou não. Neste sentido, existe a hipótese científica que não pode

ser testada matematicamente, mas resume a ideia do experimento, devendo ter clareza a partir da revisão de

literatura realizada. Já a hipótese estatística, diferentemente da hipótese científica, pode ser testada

matematicamente, ratificando ou retificando a hipótese científica com a aceitação ou rejeição da hipótese

nula (H0).

Correto, mas não muito ligado com a pergunta, já que não menciona as consequências da diferença, como

perguntado 0,75

22. [] (IP:281473652443841 | 08:40:51 | 21:25:29 | 44:38 | 3.1)

Cinco adubos verdes serão avaliados quanto a seus efeitos na população de nematóides em

cana de açúcar queimada ou não, em trabalho de campo, com cinco repetições. Indique

arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de

liberdade. Use tab para separar as colunas

Devido ao fato de haver inerentemente heterogeneidade em condições de campo e sabendo de que forma

ocorre esta heterogeneidade, há a necessidade de realizar o delineamento em blocos casualizados. Contudo,

no presente exemplo, não há informações suficientes para a adoção dos blocos casualizados, já que mesmo

sabendo que trata-se de um ambiente heterogêneo (variação da população de nematóides na área), não

sabemos como esta heterogeneidade conforma-se na área e, portanto, não podemos aplicar o controle local

(blocos). Nesta situação, existem duas alternativas: faz-se uma amostragem da população de nematóides no

local para definir como seriam os blocos, ou adota-se o delineamento inteiramente casualizado.

Como somente foram disponibilizadas estas informações, o Delineamento Inteiramente Casualizado é o

recomendado. O arranjo de tratamentos adotado é o fatorial em parcelas subdivididas, onde a queima ou não

da cana constituem-se como as parcelas principais (por necessitarem de maior espaço físico) e os adubos

verdes como subparcelas, contendo o experimento 5 repetições. Desta forma, serão (2 cortes de cana x 5

adubos verdes) 10 tratamentos. Vale salientar que as parcelas principais (parcelas com cana queimada ou

não) serão sorteadas no local e, dentro de cada parcela principal, as subparcelas (5 adubos verdes) serão

sorteadas.

A análise de variância é realizada em duas partes:

(Tratamentos da parcela principal)

Fonte de variação GL

Tratamento 1

Resíduo 8

Parcela 9

(Tratamentos das subparcelas)

Fonte de Variação GL

Tratamento 4

Interação Axb 4

Resíduo 32 (T- parcela – trat. – Interação)

Total 49

Ótimo, exceto quanto às ressalvas de identificação de tratamentos que levantei na outra resposta 1

1. [] (IP:281474038335825 | 07:46:14 | 19:52:30 | 06:16 | 6.995)

Explique como a escolha do delineamento pode afetar a precisão do experimento.

A escolha do delineamento está intrisecamente ligada à aplicação ou não do controle local, bem como a

forma de aplicação do mesmo, tendo por objetivo diminuir a variação do acaso, considerando que quanto

melhor o controle local menor será a variação do acaso e maiores serão as chances de que sejam encontradas

diferenças significativas entre os tratamentos, uma vez que torna-se mais seguro confirmar que os efeitos são

provenientes dos tratamentos e não da variação do acaso. Este fato aumenta, portanto, a precisão do

experimento.

Para o Delineamento Inteiramente Casualizado (DIC), pela homogeneidade do ambiente ou pela ausência de

informações acerca da heterogeneidade não se faz uso do controle local, configurando-se como um

delineamento simples, com apenas duas fontes de variação (tratamento e variação do acaso). Já o

Delineamento em Blocos Casualizados (DBC), há a formação de blocos com o objetivo de tornar um

ambiente heterogêneo em subgrupos mais homogêneos, permitindo a análise apenas do efeito dos

tratamentos, ressaltando a existência de mais uma fonte de variação que será os blocos.

Esta explanação torna-se importante para visualizarmos que a escolha do delineamento é em função do

ambiente e caso esta escolha seja realizada equivocadamente, o experimento pode apresentar algumas

imprecisões.

Caso haja a escolha pelo DIC quando deveria escolher o DBC, deixa-se de aplicar o controle local por

considerar que a área é suficientemente homogênea para avaliar apenas o efeito dos tratamentos. Contudo, a

heterogeneidade da área, não devidamente reconhecida, poderá influenciar na relação existente entre efeito

do tratamento e efeito da variação do acaso e consequentemente pode-se atribuir erroneamente a ausência de

efeito dos tratamentos quando na verdade existe diferença ou que há diferenças entre os tratamentos,

quando, de fato, esta variação é devida ao acaso.

Caso a escolha seja pelo DBC quando deveria ter optado pelo DIC, há um maior consumo de graus de

liberdade (GL) na aplicação do controle local (blocos) desnecessariamente. O consumo de GL pela

aplicação do bloco resultará no aumento do Quadrado Médio do Resíduo, que este afetará no valor de

Fcalculado, subestimando-o. A subestimação pode acarretar em conclusões erradas sobre o experimento,

como por exemplo, inferir que os tratamentos não diferiram entre si, já que o resíduo mostrou-se muito

maior e, portanto, a variação ocorrida no experimento pode ser satisfatoriamente explicada pelos erros

experimentais.

Ok 1

2. [] (IP:281474038335825 | 12:27:35 | 19:52:50 | 25:15 | 15.362)

Compare os erros tipo I e II, suas mais prováveis consequências, e seu relacionamento com

nível de significância.

Os erros tipo I e II são determinados pela decisão em aceitar ou rejeitar certa condição observada da hipótese

nula (Ho), ou seja, o erro tipo I consiste em rejeitarmos a Ho quando esta é verdadeira, enquanto que a

decisão correta a ser tomada deveria ser a de aceitá-la. Já, o erro tipo II se apresenta em outro estado de Ho

está agora sendo falsa, porém sendo aceita quando deveria rejeitada.

Em termos práticos cometermos os erros tipo I e II consiste em declararmos a existência (Erro I) ou

inexistência (Erro II) de diferença significativas entre os nossos tratamentos avaliados no experimento, e

diante disso assumimos que ambos são resultados “mascarados”, ou seja, errôneos, contudo o erro tipo I

sempre apresentará maior gravidade em relação ao outro. Essa afirmação fica mais esclarecida por meio de

um exemplo prático, como: produtividade de duas variedades vegetal A(nova) e B(velha) – se cometermos o

erro tipo I afirmando que a variedade A é mais produtiva que a B, e que na realidade não se procede o efeito,

obteremos perdas satisfatórias em produtividade se agora produzirmos apenas a variedade A em vez da B

(concepção de perda) – agora, se realmente a variedade A é superior a variedade B e aí chego a conclusão

errônea (erro II) de que isso não ocorre na realidade e consequentemente continuo cultivando e produzindo a

variedade B obtendo produtividades inferiores, a concepção introduzida neste caso é de redução de ganho,

porém sem nenhuma perda, já que continuo utilizando uma variedade antes explorada.

A relação existente entre os tipos de erros (I e II) com o nível de significância (1%, 5% e 10%, sendo o mais

empregado o de 5%) se estabelece pelo seguinte raciocínio: quando atribuímos um nível de 5% de

significância para a análise estatística de nosso experimento, assumimos uma probabilidade de 5% em

rejeitarmos Ho e se esta for verdadeira cometeremos o erro tipo I com a mesma chance de 5%, já nesta

mesma condição de significância de 5% nos ocorre a probabilidade de 95% em aceitarmos Ho e se esta for

falsa teremos logicamente a mesma chance de cometer o erro tipo II (95%). Diante disso se chega a

conclusão que o nível de significância (1%, 5% ou 10%) adotado será a probabilidade de cometermos o erro

tipo I e por consequência lógica a diferença (99%, 95% e 90%) será a probabilidade de cometermos o erro

tipo II, e por simples observação ainda se conclui que se diminuirmos as chances de erro I aumentaremos as

do erro tipo II.

Cuméqueé? De onde apareceu esta afirmativa ligando diretamente nível de significância e erro tipo II?

Estava indo tão bem até aí… o nível de significância é ligado somente com o erro tipo I, e a ligação com o

tipo II é somente indireta, e não mensurável. 0,75

3. [] (IP:281474038335825 | 12:28:33 | 19:53:01 | 24:28 | 7.65)

Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos,

em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique

e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

O arranjo fatorial do experimento é do tipo simples com 10 x 5 (10 cultivares de soja x 5 inoculantes

rizobianos) com quatro repetições e o experimento será conduzido no delineamento em blocos casualizados

com quatro blocos.

A escolha do delineamento em blocos é explicada pela extensa área exigida na implantação do experimento,

reflexo do grande número de parcelas experimentais envolvidas (10 x 5 = 50 tratamentos x 4 repetições =

200 parcelas experimentais), o que dificulta a avaliação completa do experimento pelo pesquisador

(possíveis erros quanto ao se confundir entre os tratamentos e a avaliação das primeiras parcelas será

diferente das parcelas avaliadas no fim, como reflexo do cansaço acarretando perdas na precisão do

experimento). Portanto, com o emprego dos blocos esse erro concernente a avaliação se encontrará

distribuídos nos blocos, ou seja, dentro do mesmo bloco todos os tratamentos receberam ou terão as mesmas

condições.

Fontes de variação GL

Tratamentos 49

Blocos 3

Resíduos 147

Total 199

Eu realmente gostaria de entender a dificuldade de traduzir o que vocês identificaram no texto como fatorial

na análise de variância como fatorial… 0,25

4. [] (IP:281474038335825 | 12:30:19 | 19:15:53 | 45:34 | 49.372)

Caso uma interação seja significativa, devo discutir os efeitos principais ligados a ela?

Justifique.

Não, tendo em vista que, em um arranjo fatorial, a presença de interações significativas anula os efeitos

principais daqueles fatores envolvidos na interação. Isto é, se fatores interagindo mostram resultados

significativos, a discussão acerca do efeito isolado de cada fator envolvido perde o sentido, já que seu efeito

influencia e é influenciado por outros fatores.

Ok 1

5. [] (IP:281474038335825 | 12:31:20 | 19:18:17 | 46:57 | 11.077)

Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado,

explicando como é o relacionamento.

O principio da repetição relaciona-se com o efeito do tratamento, já que o modelo linear generalizado

(MLG) é de caráter aditivo e este componente é parte integrante do mesmo. A aplicação deste princípio

experimental nos proporciona reconhecer distintamente a ação devida ao tratamento daquela que poderia

ocorrer devido a causas desconhecida (variação ao acaso), e este reconhecimento é dado por meio das

observações que são apresentadas nas repetições de um mesmo tratamento.

O princípio da casualização nos assegura em termos erros experimentais independentes, ou seja, uma total

independência de efeitos ocorridos entre as parcelas experimentais, ou melhor, assim dizendo entre as

repetições do mesmo tratamento, proporcionando da mesma forma como a repetição, uma distinção do que

seria o efeito do tratamento daquela promovida pelo acaso (efeito aditivo), como também ela juntamente

com o controle local, quando aí necessário e possível for a sua aplicação, nos assegura condições igualitárias

a todos atuando dessa forma na homogeneidade das variâncias existentes entre os tratamentos, que a isso

denominamos homocedasticidade dos dados.

Ok 1

6. [] (IP:281474038335825 | 12:33:15 | 19:20:43 | 47:28 | 7.879)

Discuta a relação entre a regressão e um relacionamento causa-efeito.

Os modelos de regressão (linear simples ou multivariado e não linear simples ou multivariado) são modelos

matemáticos que relacionam o comportamento de variável resposta ou efeito (“Y”) com outra (“X”)

encarada como causa. Também podemos dizer que a variável Y é a variável dependente, enquanto que a

variável X é a independente, isso para um modelo de regressão linear simples, portanto através do emprego

da regressão buscamos simular o(s) possível(eis) relacionamento(s) entre as variáveis causa (X) e efeito (Y).

Por exemplo, quando utilizamos doses crescentes de torta de filtro (0, 10, 20, 30 e 40 t/ha) para se avaliar a

produtividade (t/ha) de uma variedade de cana-de-açúcar no final do ciclo se observou os seguintes

comportamentos hipotéticos abaixo:

Dose (t/ha) Produtividade (t/ha)

0 30

10 46

20 52

30 65

40 67

Os resultados apresentados na produtividade se configuram como os efeitos oriundos das causas que para

este exemplo foram às doses de torta, e desta forma por meio da regressão demonstramos a relação causa-

efeito entre as variáveis.

Rodou, rodou e terminou dizendo que x causa y, o que não é necessariamente verdadeiro. A relação causa-

efeito não é explicitada pela regressão, ou então o fêmur era a causa da altura, conforme aquele exemplo

velho de guerra… 0

7. [] (IP:281474038335825 | 12:34:08 | 19:22:00 | 47:52 | 7.068)

Discuta a afirmativa: “A distribuição normal pode ser considerada a base da Estatística

Experimental como a conhecemos”. Justifique sua posição.

A importância da distribuição normal reside na sua utilização para descrever um grande número de variáveis

que estão relacionadas a alguns fenômenos que tem suas distribuições de probabilidades próximas à uma

distribuição normal e, portanto, pode-se fazer, a partir disso, algumas inferências estatísticas.

Além disso, é importante salientar que a distribuição normal dos resíduos é uma premissa exigida para a

realização da análise de variância. Em outras palavras, para haver a comparação entre tratamento e variação

do acaso (análise de variância), é exigido que os resíduos tenham uma distribuição de probabilidades normal

ou aproximadamente normal com média igual a zero. Mesmo não sendo o requisito mais importante, já que

pequenas violações aos pressupostos da normalidade podem ocorrer e não influenciar substancialmente a

análise de variância, através do teste F, existem duas situações em que não poderia realizar a ANAVA: a

ocorrência de assimetria e curtose positiva (situações em que não há distribuição normal dos resíduos) na

distribuição dos erros, onde haveria a subestimação do nível de significância considerado.

Na realidade a importância vem do Modelo Linear Generalizado, não da Análise de Variância. Se eu fizer

uma regressão, sem nem tocar no MLG, vou precisar da distribuição normal exatamente do mesmo jeito que

se fizer uma ANOVA. 0,25

8. [] (IP:281474038335825 | 12:35:19 | 19:25:15 | 49:56 | 114.029)

Discuta diferentes estratégias para seleção do melhor modelo de regressão linear múltipla

As técnicas mais utilizadas são as seguintes:

1ª – Testar todas as regressões possíveis: como o titulo já propõe, esta técnica aplica-se a todas as regressões

possíveis, estas determinadas pelos possíveis arranjos que se possa fazer entre as variáveis envolvidas no

estudo, logo, este número de combinações fica sendo determinado pela expressão 2^(p_máx )-1, onde p

corresponde ao número de variáveis independentes, ou seja, se em determinado estudo tivermos um número

de 8 variáveis, isso implica dizer que teremos 255 modelos de regressão possíveis para avaliarmos na

respectiva técnica. Problemas quanto a esta técnica relacionava-se à elevada carga computacional a qual era

exercida sobre os antigos computadores no momento da análise, mas, isso se modificou com o advento de

processadores com alta velocidade de processamento tornando aplicável o método. A desvantagem do

método consiste na informação limitada que o mesmo nos fornece sobre o verdadeiro, ou melhor, modelo de

regressão múltipla;

2ª – Eliminação para trás (backward elimition): neste teste, inicia-se com a regressão múltipla contendo

todas as variáveis, posteriormente, eliminamos a cada rodada de seleção (R2, R_a^2, Cp e etc) a variável de

menor efeito no modelo, e desta forma sempre avaliamos o efeito da última variável retirada. A

desvantagem do método reside no fato de que uma vez retirada a variável não entrará mais na composição

do modelo e consequentemente no processo de seleção, isso nos faz pensar ou refletir que, ora aquela

variável poderia estar apresentando pouco efeito no modelo da vez, ora esta mesma variável, porém, em

outra combinação (outro modelo) poderá ser mais efetiva quanto a explicar o fenômeno;

3ª – Seleção para frente (forward selection): esta técnica assemelha-se a de eliminação para trás, contudo em

direção oposta, ou seja, agora em vez de iniciarmos com um modelo contendo todas as variáveis,

iniciaremos com o modelo simples com apenas uma variável, essa de maior efeito, após a aplicação dos

critérios de seleção adicionamos outra variável e repetimos o procedimento de avaliação e, desta forma,

processamos até abranger o número total de variáveis na regressão múltipla. A desvantagem desta é similar

em fundamento a da backward elimition tendo em vista que uma vez adicionada esta variável não poderá

mais ser retirada para se avaliar novas condições (combinações);

4ª – Stepwise (forward e backward): esta se configura como uma junção dos métodos anteriormente

descritos acrescido da possibilidade de adicionarmos ou retirarmos variáveis do modelo em processo de

seleção (R2, R_a^2, Cp e etc) na circunstância em que se julgar viável (combinação de maior efeito), ou

seja, este método supre a deficiência ocorrida nos descritos acima (backward elimition e forward selection)

quanto a descrever a melhor combinação entre as variáveis. Essa ação apresenta seus benefícios isso é fato,

todavia esta maior possibilidade também aumenta as chances de cometermos o erro tipo I, devido ao grande

número de modelos gerados.

Ok 1

9. [] (IP:281474038335825 | 12:36:39 | 19:26:15 | 49:36 | 15.236)

Um experimento vai ser conduzido em laboratório avaliando o crescimento de Atriplex em

solos com cinco diferentes níveis de condutividade elétrica, e em quatro espaçamentos

diferentes, e cinco repetições. Indique arranjo e delineamento mais adequados, justifique e

determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

O experimento será em arranjo fatorial simples (5 x 4) com 5 níveis de condutividade elétrica no solo e 4

espaçamentos com 5 repetições para cada tratamento, totalizando assim 100 parcelas experimentais em todo

o experimento.

O experimento será conduzido em delineamento inteiramente casualizado, efetuando-se a casualização dos

tratamentos por meio de sorteio em todo o campo experimental.

A justificativa para a aplicação do delineamento reside na falta de informações sobre a heterogeneidade do

local onde será aplicado ou conduzido o experimento, pois sem estas informações se torna impossível

aplicarmos o controle local de forma coerente e consequentemente adotarmos o delineamento em blocos.

Fonte de variação GL

Tratamento 19

Resíduo 80

Total 99

Como infelizmente aconteceu em quase todos os casos, indica fatorial no texto, mas não reconhece na

ANOVA 0,25

10. [] (IP:281474038335825 | 12:38:54 | 19:27:11 | 48:17 | 9.621)

Descreva situações em que o uso da multivariada seria interessante em trabalhos de

experimentação.

As técnicas de análise multivariada podem ser aplicadas nos mais diversos segmentos do ramo cientifico nas

distintas áreas, contudo, seu uso se mostra mais frequente para alguns ramos científicos, enquanto que para

outros sua utilização é menos evidente. Portanto, abaixo é descrito algumas situações em diferentes áreas na

qual podemos lançar mão da multivariada, são as seguintes:

• Agronomia: prever o genótipo de um determinado fruto com base em informações referentes ao número

total de frutos por hectare, o peso médio dos frutos, o peso total médio por unidade de área, o número médio

de frutos por planta e outras informações como o índice de formato e o °Brix;

• Zootecnia: estudar a relação entre as características de manejo e de criação de gado com as características

da carne após o abate. Se os animais estiverem separados em grupos de acordo com algum tratamento, pode

ser necessário utilizar a análise de variância multivariada para comparar as médias desses grupos em um

determinado conjunto de variáveis respostas;

• Medicina: como as reações dos pacientes a um determinado tratamento são mensurados por diversas

variáveis respostas e possuem difícil diagnostico, as técnicas de multivariada podem construir uma medida

de resposta simples ao tratamento, que preserva a maior parte da informação das múltiplas variáveis

respostas;

• Biologia: em melhoramento genético de plantas é necessário, após o final de uma geração, selecionar

aquelas plantas que serão os genitores da geração seguinte, portanto, a seleção deve ser realizada a fim de se

obter uma próxima geração que seja melhor que a anterior em relação a resposta média de uma série de

características, daí, as técnicas de multivariada podem ser utilizadas para converter os valores de uma série

de características em um índice, que é utilizado para a escolha dos futuros genitores.

Você leu a pergunta, antes de tentar copiar material introdutório de multivariada? Isto veio diretamente de

algum livro-texto, sem qualquer parada para pensar no caminho, infelizmente. 0,25

11. [] (IP:281474038335825 | 12:42:21 | 19:27:48 | 45:27 | 32.527)

Diferencie interação e efeito principal.

Entende-se por efeito principal como sendo o efeito de cada fator, independentemente do efeito dos outros,

já interação corresponde ao efeito simultâneo dos fatores sobre a variável em estudo, portanto, ocorre

interação entre os fatores quando os efeitos dos níveis de um fator são modificados pelos níveis do outros.

Ok 1

12. [] (IP:281474038335825 | 12:43:29 | 19:29:22 | 45:53 | 77.777)

Qual a principal vantagem do uso de regressões não lineares?

Sua principal vantagem em relação ao modelo linear refere-se ao fato de que esta melhor se adequa aos

comportamentos ou fenômenos ocorridos biologicamente, ou seja, os modelos de regressão não lineares (p.

ex. exponencial e logarítmico) se aproximam ou expressam uma mais perfeita realidade das atividades

descritas no âmbito biológico, como o crescimento vegetal em função de diferentes níveis de adubação

nitrogenada (kg ha-1), na qual se observa, por exemplo, que até certo nível de incremento de nitrogênio (N)

a planta apresenta crescimento de caráter linear crescente, contudo, em determinado nível de adubação este

crescimento cessa ou reduz drasticamente, ou seja, o crescimento se estabiliza, configurando agora um

comportamento distinto daquele visto inicialmente. Desta forma inferimos que o crescimento vegetal não

está sendo mais compensando pelas elevadas doses de N e que praticamente a planta não sofrerá aumentos

no seu crescimento (“Y”) a partir de uma determinada dose “x” (kg ha-1), sendo este comportamento melhor

descrito por meio de uma regressão não linear do tipo exponencial.

Ok 1

13. [] (IP:281474038335825 | 12:44:17 | 19:30:53 | 46:36 | 75.162)

Quais são os principais critérios a avaliar durante o planejamento de uma amostragem?

Os principais critérios na qual devemos avaliar sobre o planejamento de uma amostragem refere-se à

representatividade que estas amostras terão sobre a população em estudo, ou seja, estas deverão descrever

com maior precisão possível sobre as características intrínsecas ou comportamento da população. Outro

critério diz respeito ao fato de que a amostragem deve ser realizada de forma aleatória, ou seja, obtidas ao

acaso. Característica essencial na estatística, pois desta forma podemos tomar conclusões baseadas na

variação do acaso. E quanto ao número de amostras quanto maior melhor, pois assim teremos maior

representativa como também teremos menor variação do acaso.

Ok 1

14. [] (IP:281474038335825 | 12:44:59 | 19:34:26 | 49:27 | 8.004)

Discuta a afirmativa: "A escolha correta do delineamento poderá fazer a diferença entre

encontrar ou não diferenças entre os tratamentos", levando em consideração particular o

tamanho do efeito de tratamentos

A escolha do delineamento está intrisecamente ligada à aplicação ou não do controle local, bem como a

forma de aplicação do mesmo, tendo por objetivo diminuir a variação do acaso, considerando que quanto

melhor o controle local menor será a variação do acaso e maiores serão as chances de que sejam encontradas

diferenças significativas entre os tratamentos, uma vez que torna-se mais seguro confirmar que os efeitos são

provenientes dos tratamentos e não da variação do acaso. Este fato aumenta, portanto, a precisão do

experimento.

Para o Delineamento Inteiramente Casualizado (DIC), pela homogeneidade do ambiente ou pela ausência de

informações acerca da heterogeneidade não se faz uso do controle local, configurando-se como um

delineamento simples, com apenas duas fontes de variação (tratamento e variação do acaso). Já o

Delineamento em Blocos Casualizados (DBC), há a formação de blocos com o objetivo de tornar um

ambiente heterogêneo em subgrupos mais homogêneos, permitindo a análise apenas do efeito dos

tratamentos, ressaltando a existência de mais uma fonte de variação que será os blocos.

Esta explanação torna-se importante para visualizarmos que a escolha do delineamento é em função do

ambiente e caso esta escolha seja realizada equivocadamente, o experimento pode apresentar algumas

imprecisões.

Caso haja a escolha pelo DIC quando deveria escolher o DBC, deixa-se de aplicar o controle local por

considerar que a área é suficientemente homogênea para avaliar apenas o efeito dos tratamentos. Contudo, a

heterogeneidade da área, não devidamente reconhecida, poderá influenciar na relação existente entre efeito

do tratamento e efeito da variação do acaso e consequentemente pode-se atribuir erroneamente a ausência de

efeito dos tratamentos quando na verdade existe diferença ou que há diferenças entre os tratamentos,

quando, de fato, esta variação é devida ao acaso.

Caso a escolha seja pelo DBC quando deveria ter optado pelo DIC, há um maior consumo de graus de

liberdade (GL) na aplicação do controle local (blocos) desnecessariamente. O consumo de GL pela

aplicação do bloco resultará no aumento do Quadrado Médio do Resíduo, que este afetará no valor de

Fcalculado, subestimando-o. A subestimação pode acarretar em conclusões erradas sobre o experimento,

como por exemplo, inferir que os tratamentos não diferiram entre si, já que o resíduo mostrou-se muito

maior e, portanto, a variação ocorrida no experimento pode ser satisfatoriamente explicada pelos erros

experimentais.

Ler a pergunta sempre é uma boa ideia… eu pedi para levar em consideração o tamanho do efeito. Ou seja,

escolher errado o delineamento é muito mais sério quando a diferença de efeito entre os tratamentos é

pequena, do que quando é muito grande. Como exemplo, é muito mais difícil diferenciar pálio de gol do que

pálio de Mercedes. Assim, mesmo que eu erre na escolha do delineamento provavelmente não vou dizer que

pálio não é diferente de Mercedes, mas preciso fazer tudo muito certinho no experimento para separar pálio

e gol 0,5

15. [] (IP:281474038335825 | 12:47:33 | 19:36:25 | 48:52 | 12.07)

Um experimento vai avaliar o efeito de cinco fontes de carboidratos no desenvolvimento de 100

estirpes rizobianas, em placa de petri (16 cm de diâmetro x 3 cm de altura) com cinco

repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de

variação e graus de liberdade. Use tab para separar as colunas

O arranjo experimental será de 5 x 100 (5 fontes de carboidratos e 100 estirpes rizobianas) com 5 repetições

totalizando 2500 unidades experimentais, o delineamento experimental adotado será o de blocos

casualizados.

A justificativa pela qual se optou pelo delineamento em blocos casualizados refere-se a limitação quanto à

realização do experimento, no que tange ao tempo de avaliação do desenvolvimento das estirpes, tendo em

vista, a inviabilidade de se avaliar 2500 placas de petri em um dia por um único operador (considera-se um

único operador para diminuir os erros experimentais). Desta forma, o delineamento mais adequado seria em

blocos, visando obter uma maior homogeneidade quanto à avaliação, ou seja, 300 placas avaliadas por dia.

O experimento conterá 5 blocos onde cada bloco teremos 1 repetição para cada tratamento.

Fonte de variação GL

Tratamento 499

Bloco 4

Resíduo 1996

Total 2499

Como infelizmente foi comum, acertou no fatorial no texto, e errou na ANOVA. 0,25

16. [] (IP:281474038335825 | 12:49:19 | 19:37:10 | 47:51 | 11.54)

Devemos tomar algum cuidado em particular ao combinar os fatores para a formação dos

tratamentos?

Sim, em especial quando o nível de um fator for dito como zero (0), daí teremos tratamentos iguais. Este

caso pode ser melhor entendido por meio do seguinte exemplo:

Considere o seguinte arranjo fatorial 3 x 6 onde temos 3 fontes de silício Si (SiCa, AgroSi e Escória) com 6

doses de Si (0, 2, 4, 6, 8 e 10 g kg-1 solo), note que um dos níveis do fator dose é zero (0) o que resultará em

tratamentos iguais e consequentemente problemas no momento na análise estatística em circunstâncias em

que a dose zero das diferentes fontes serem diferentes a certo nível de significância o que dificulta em muito

a explicação.

O correto e mais econômico para esta situação é adotarmos a dose zero (0) como tratamento adicional ao

fatorial, ou seja, 3 (fontes) x 5 (doses) + 1 (0 mg kg-1 = controle) em que a dose 0 será avaliada fora do

fatorial.

Ok 1

17. [] (IP:281474038335825 | 12:50:28 | 19:44:21 | 53:53 | 10.587)

Discuta diferentes critérios para seleção da melhor regressão linear múltipla.

Os diferentes critérios de seleção para assim determinarmos o melhor modelo de regressão múltipla consiste

basicamente na avaliação dos seguintes parâmetros: R2 (coeficiente de determinação do modelo), R_a^2

(coeficiente de determinação do modelo ajustado), Valor de F (analise de variância de cada modelo), QMR

(quadrado médio dos resíduos), SQR (soma dos quadrados dos resíduos), Cp (Cp de Mallows) entre outros

como o AIC, BIC e critério PRESS.

- Coeficiente de determinação (R2): este método baseia-se na observação dos valores determinados para o

R2 (varia de 0 a 1) de acordo com o ajuste do modelo de regressão múltipla, logo, se adicionarmos uma

variável insignificante ao modelo teremos um aumento mínimo de R2. Daí deve-se escolher o modelo com

maior R2 que substancialmente explique o que ocorre no fenômeno. Contudo, sua empregabilidade tem sido

mais voltada em determinarmos o quando de cessarmos de adicionar variáveis ao modelo, ao invés de

encontrar o melhor, tendo em vista que os valores de R2 não reduzem quando adicionamos mais variáveis;

- Coeficiente de determinação ajustado (R_a^2): No intuito de minimizarmos erros decorrentes da análise

incorreta do R2 para alguns é preferível usar o R_a^2, não necessariamente este aumenta com a adição de

variáveis ao modelo (p + s(conj. variáveis)), contudo apresentará valores superiores quando na analise de F

entre os modelos (p e p + s) apresentar aumento do efeito das variáveis incluídas. Consequentemente, o

critério de escolha baseado no R_a^2 consiste em escolher o que apresentar valor máximo;

- F (resultado da análise de variância): entende-se neste critério que na avaliação dos modelos aquele que

apresentar um maior efeito devido ao tratamento sobre o acaso (valores de Faltos ou melhores significâncias

Pr < F) deverá ser escolhido como o que melhor representa o comportamento em estudo;

- QMR (quadrado médio dos resíduos): neste método inferimos que quanto menor for o QMR de um modelo

consequentemente maior será o R_a^2, portanto, modelos nos quais apresentem reduzidos valores para o

QMR deverão ser escolhidos como os de melhor ajuste;

- SQR (soma dos quadrados dos resíduos): tem o mesmo principio do critério anterior, tendo em vista que

este é um componente utilizado na determinação do QMR, contudo, apresenta certa limitação quando a

dependência do tamanho da amostra;

- Cp (Cp de Mallows): este critério baseia-se no conceito de erro quadrático médio dos valores ajustados e

pode determinado pela seguinte equação:

C_p=〖SQR〗_((p))/QMR-n+2(p+1)

em que SQRp é a soma dos quadrados dos resíduos do submodelo, QMR o quadrado médio do modelo

máximo, n número de amostras e p o número de variáveis. Logo, a estratégia de seleção de modelos baseada

no Cp consiste em encontrar modelos com valores de Cp próximo do número de parâmetros (p +1). Por

exemplo, considere dois modelos de regressão:

Modelo 1 – com apenas 1 variável e com valores de SQR = 34.419 e QMR = 1.220, calculando o Cp temos

o seguinte resultado;

C_p= 34.419/1.220-14+2×2=18,21

Modelo 2 – com duas variáveis e valores de SQR = 13.421 e QMR = 1.220, calculando o Cp temos o

seguinte resultado;

C_p=13.421/1.220-14+2×3=3

Portanto, pode-se afirmar que o modelo 2 é aquele cujo valor de Cp melhor se aproximou do número de

parâmetros (p + 1) e por isso no critério de escolha adotado ele deve ser escolhido.

Ok, embora descrição ≠ discussão 1

18. [] (IP:281474038335825 | 12:52:14 | 19:47:33 | 55:19 | 13.019)

Será conduzido um projeto para avaliar a reciclagem de nutrientes em pastagens, caatinga e

mata atlântica, ao longo do tempo. Para este fim será realizada a coleta da produção natural de

serrapilheira, seu conteúdo de nutrientes e sua decomposição. O projeto também deverá

avaliar a biomassa presente em cada ecossistema, bem como características microbiológicas,

químicas e de física do solo. Deverão existir repetições reais em cada ambiente.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

O experimento é exploratório, ou seja, se configura como sendo um trabalho amostral, onde não podemos

aplicar nenhum tipo de delineamento experimental. Portanto, os tratamentos consistirão das amostragens

realizadas nos três ecossistemas (pastagem, caatinga e mata atlântica) em estudo ao longo do tempo para se

efetuar as devidas avaliações da serrapilheira, da biomassa e da camada superficial do solo nos distintos

ecossistemas.

Para a amostragem da serrapilheira serão utilizados cinco coletores de madeira distribuídos aleatoriamente

em cinco pontos de cada ecossistema, de forma que esta amostragem seja a mais representativa possível de

cada área avaliada. Logo, deste material coletado serão avaliados a sua taxa de decomposição como também

seu conteúdo de nutrientes.

Quanto a amostragem do solo esta será executada na camada de 0 – 0,1 m de profundidade o que

corresponde a camada de deposição de serrapilheira no solo. Para cada área (pastagem, caatinga e mata

atlântica) serão coletadas cinco amostras simples para compor uma amostra composta e cada área conterá

cinco amostras compostas a cada tempo de avaliação. A amostragem do solo será realizada próxima aos

coletores de serrapilheira assim como a produção da biomassa nos diferentes ecossistemas.

A análise estatística dos resultados foi realizada por meio de estatística descritiva por meio da aplicação de

medidas de tendência central (média), medida de dispersão (desvio-padrão) e seus respectivos coeficientes

de variação (CV).

Os resultados serão apresentados por meio de tabelas e figuras (gráficos de colunas), da seguinte forma:

Figuras

- Figura 1. Produção média de serrapilheira (g m-2) de diferentes ecossistemas (pastagem, caatinga e mata

atlântica) ao longo do tempo de avaliação (este tempo pode ser de mês em mês ao longo de um ano, por

exemplo, vai depender da proposta do trabalho). No eixo x do gráfico fica os diferentes tempos de avaliação

e no eixo y a produção de serrapilheira;

- Figura 2. Taxa de decomposição média da serrapilheira (g dia-1) de diferentes ecossistemas (pastagem,

caatinga e mata atlântica) ao longo do tempo de avaliação. No eixo x do gráfico fica os diferentes tempos de

avaliação e no eixo y a produção de serrapilheira;

- Figura 3. Produção média de biomassa (Mg ha-1) de espécies presentes nos biomas pastagem, caatinga e

mata atlântica ao longo do tempo de avaliação;

Tabelas

- Tabela 1. Caracterização microbiológica do solo nos diferentes ecossistemas (pastagem, caatinga e mata

atlântica) ao longo do tempo de avaliação

C-BMS(µgC/g) C-CO2(µg/g.dia) qMIC(%)

tempo1 x (±d)

tempo2

tempo3

tempo4

tempo(n)

CV

*C-BMS (carbono da biomassa microbiana do solo), - O2 (respiração basal), qMI (quociente

microbiano), x (média), ±d (desvio-padrão), CV (coeficiente de variação) e n (número de tempo de

avaliação)

- Tabela 2. Caracterização química da camada superficial (0 – 0,1m) do solo nos diferentes ecossistemas

(pastagem, caatinga e mata atlântica) ao longo do tempo de avaliação

pH(água) Ca2++Mg2+ Ca2+ K+ P N

tempo1 x (±d)

tempo2

tempo3

tempo4

tempo(n)

CV

*pH (relação 1;2,5 – solo : água), Ca2++Mg2+, Ca2+ e K+ (resultado em cmolc dm- ), (resultado em mg

dm- ), N (dag kg-1), x (média), ±d (desvio-padrão), CV (coeficiente de variação) e n (número de tempo de

avaliação).

- Tabela 3. Caracterização física da camada superficial (0 – 0,1m) do solo nos diferentes ecossistemas

(pastagem, caatinga e mata atlântica) ao longo do tempo de avaliação

Ds(gcm-3) Areia(%) Silte(%) Argila(%)

tempo1 x (±d)

tempo2

tempo3

tempo4

tempo(n)

CV

x (média), ±d (desvio-padrão), CV (coeficiente de variação) e n (número de tempo de avaliação)

Meus parabéns. Foi tão bom que vou dar meio ponto de bônus 1,5

19. [] (IP:281474038335825 | 12:56:29 | 19:48:10 | 51:41 | 34.321)

Discuta a afirmativa: "A maioria dos problemas do fatorial é derivada de uso inadequado

dele"

Esta afirmativa descreve uma realidade quanto aos principais problemas relacionados ao emprego do

fatorial. Isso se deve a escolha do tipo de fatorial (simples, parcelas subdivididas e medição repetida) a ser

empregado na experimentação, ou seja, em muitos casos por motivos de simplificação ou por falta de

conhecimento adequado adota-se o fatorial simples quando na verdade o emprego mais coerente seria o de

medição repetida, a exemplo de trabalhos em que avaliamos crescimento vegetal ao longo do tempo ou

níveis de adubação ao longo das profundidades do perfil do solo. Portanto, como a escolha do tipo de

fatorial influi na forma em que analisamos os dados esses tipos de erros refletirão na perda de precisão e

exatidão do experimento acarretando sérios problemas.

Medição repetida não tem nada a ver com fatorial… e na realidade a resposta tem relação muito pequena

com a pergunta, já que não falei nada na comparação entre os tipos de fatorial, e sim no fatorial em geral…

0

20. [] (IP:281474038335825 | 12:57:18 | 19:49:19 | 52:01 | 15.195)

Discuta as aplicações da medição repetida em solos.

Existem várias aplicações para medições repetidas quando associamos à realidade da pesquisa voltada para a

ciência do solo, dentre elas, vale salientar:

- efeito de corretivos nas camadas do solo: Quando avalia-se o efeito do gesso na neutralização do alumínio

trocável, é importante destacar que mesmo com a aplicação em superfície, o efeito do sulfato reagindo com

o Al será observado em subsuperfície, assim como trará também maior aporte de cálcio para a camada

subsuperficial. Este efeito ratifica a ideia de que o que acontece nas menores profundidades afeta o que

ocorre nas maiores profundidades.

- incubação de solo – comportamento de adsorção de metais pesados: Em experimentos que visam observar

o comportamento de metais pesados no solo, em termos da especiação e, consequentemente, das frações do

solo nas quais estes elementos são encontrados ao longo do tempo, faz-se necessária a adoção da medição

repetida. A base destes experimentos relacionados com o processo de adsorção de metais pesados no solo é a

coleta de várias amostras de solo em cada unidade experimental (vaso contendo determinada concentração

de fósforo e/ou metais pesados) ao longo do tempo (0, 15, 20, 30 e 60 dias) para avaliar as diferentes frações

do elemento no solo (através de fracionamento do solo). É notório o princípio de que várias medições (várias

amostragens) da mesma variável (chumbo, por exemplo) são realizadas em uma mesma parcela (vaso) ao

longo do tempo, evidenciando que a forma na qual o metal está adsorvido aos colóides do solo aos 60 dias,

depende de processos que ocorreram antes deste período, havendo, neste caso, dependência entre as

medições de uma variável.

- avaliação do teor de argila no solo (processo de eluviação e iluviação): Em análises que relacionem o teor

de argila ao longo do perfil do solo, faz-se necessária a coleta em diferentes profundidades, contudo, deve-se

utilizar a medição repetida, já que um processo de iluviação (deposição de material, inclusive argila) como

resultado de um deslocamento de material de camadas mais superficiais através da ação da água (eluviação)

pode ocorrer e, neste caso, visualizamos a interação existente entre as camadas (existência de dependência).

- avaliação de parâmetros químicos no solo: Vários parâmetros químicos do solo podem ser avaliados a

exemplo do cálcio. Em experimentos onde são coletadas amostras de solo para analisar os teores de Ca nas

diferentes camadas de solo (0-20cm; 20-40cm e 40-60cm) deve-se ter em mente que a análise deve ser feita

considerando as medições repetidas, uma vez que processos que tenham ocorrido na profundidade de 0-

20cm (por exemplo, adubação, aplicação de gesso, ou até um processo de lixiviação) interferem na presença

e concentração de Ca na camada de 20-40cm e talvez até na profundidade de 40-60cm.

Não consegui identificar qualquer discussão, apenas citação de alguns exemplos. No entanto, os exemplos

estão muito bem escolhidos. 0,75

21. [] (IP:281474038335825 | 12:58:03 | 19:49:53 | 51:50 | 30.748)

Podemos esperar o mesmo grau de eficiência dos diferentes tipos de fatorial?

Não, pois quando comparamos o fatorial simples com o de parcelas subdivididas teremos uma maior

variação do acaso no tipo parcela-subdividida quando comparo com o simples, devido ao efeito da divisão

das parcelas em principais e subparcelas. Essa maior variação do acaso refletirá em menor eficiência na

análise estatística dos resultados.

Na realidade não é que a variação do acaso seja maior, apenas o QM é que é maior, já que a mesma variação

do acaso está distribuída por menos GL. No entanto, está certo em linhas gerais. 1

22. [] (IP:281474038335825 | 12:59:07 | 19:52:19 | 53:12 | 29.298)

Como o número de níveis de um fator pode afetar a precisão dos demais fatores de um

experimento?

Por meio do aumento ou redução das repetições reais dos outros fatores envolvidos, ou seja, quando

decidimos aumentar ou trabalhar com maiores níveis de um fator isto refletirá em um maior número de

repetições reais dos demais fatores envolvidos, aumentando dessa forma a precisão, pois com um maior

número de repetições aumentamos a certeza do que é efeito do acaso ou do tratamento. Contudo, a redução

no número de níveis de fator reduzirá o número de repetições dos demais fatores, o que resultará em

menores repetições e consequentemente menor precisão.

Como exemplo, citamos dois experimentos demonstrando como o número de repetições é influenciado pelos

níveis dos fatores:

- Experimento 1: 4 doses de Si (fator 1) x 5 variedades de milho (fator 2) x 3 repetições

Repetições reais (fator 1) = 5 x 3 = 15 repetições

Repetições reais (fator 2) = 4 x 3 = 12 repetições

- Experimento 2: 6 doses de Si (fator 1) x 5 variedades de milho (fator 2) x 3 repetições

Repetições reais (fator 1) = 5 x 3 = 15 repetições

Repetições reais (fator 2) = 6 x 3 = 18 repetições

Como observado nos dois experimentos o nível de um fator influi no número de repetições reais do outro

fator envolvido no fatorial.

Excelente 1

1. [] (IP:281473660056925 | 00:01:34 | 22:56:52 | 55:18 | 0.548)

Diferencie repetição real, repetição experimental, e réplica.

Resposta 1: A repetição real é o número de vezes que um nível do fator vai aparecer em um experimento

proveniente das combinações de cada nível do fator com os níveis dos outros fatores utilizados.

A repetição experimental é a repetição do experimento como um todo.

A réplica é usada para medir as variações de analises de laboratório, a réplica não possui variação do acaso,

apenas possui variação dos equipamentos de leitura ou do operador.

Excelente 1

2.

Discuta as aplicações da medição repetida em solos.

Resposta 2: As medidas repetidas são empregada para indicar medidas feitas na mesma variável ou na

mesma unidade experimental em mais de um período. As medições repetidas podem ser utilizadas na área

de ciência do solo, principalmente na sub área de conhecimento de gênese e classificação do solo, devido

esta sub área não apresentar outras estatística aplicável a analise dos dados referentes dos estudos de gênese

e classificação. As ocorrências mais comuns são usadas em experimentos de fertilidade do solo, onde os

pesquisadores adotam medidas repetidas em diferentes tempos sobre uma unidade experimental, com a

finalidade de verificar o seu comportamento ao longo do tempo, caracterizando as medidas repetidas no

tempo, assim como exemplo temos os experimentos lançados para avaliarem o desenvolvimento de plantas,

outro exemplo é a determinação de teores de nutrientes do solo em diferentes profundidades.

Você notou que primeiro disse que é particularmente empregável em gênese, e depois em fertilidade, não

notou? 1

3. [] (IP:281473660056925 | 00:02:13 | 22:57:50 | 55:37 | 30.523)

Justifique a afirmativa: "Quanto mais informações temos, melhor a seleção do delinamento

experimental"

Resposta 3: Esta informação é verdadeira, pois quanto mais informações temos de uma área experimental,

mais segura será a nossa decisão para definir o melhor delineamento experimental. Assim quanto mais

informações eu tiver da área vou saber se ela apresentar ou não variações ao decorrer de toda a área

experimental. Deste modo quando temos poucas informações eu não poderei afirmar com certeza se a área é

homogênea ou heterogênea. Com base em um maior número de informações podemos então definir ser o

delineamento experimental a ser utilizado é um delineamento inteiramente casualizado, delineamento em

blocos casualizados ou em quadrado latino.

Ok 1

4. [] (IP:281473660056925 | 00:02:19 | 23:03:14 | 00:55 | 7.925)

Diferencie fatorial de parcela subdividida, em termos de uso.

Resposta 4: A diferenciação em forma de uso pode ser entendida pelo o fato de os experimentos fatoriais

avaliarem o experimento como um todo, já as parcelas subdivididas elas são divididas no experimento para

facilitar o manejo e a condução do experimento. As parcelas subdivididas são um tipo especial de fatorial

em que um fator é alocado dentro do outro, deste modo às parcelas têm tamanho diferentes para diferentes

fatores, isto ocorre quando temos fatores que requerem uma maior quantidade de material experimental do

que outros fatores.

As parcelas subdivididas visa economizar áreas experimentais, sendo assim podemos reduzir a variabilidade

se usa o fator que exige área maior para definir a parcela, e divide-se a parcela em sub-parcelas, em que

serão distribuídos os níveis do outro fator que serão necessários em menores áreas.

A principal característica das subparcelas é a casualização dos níveis dos fatores, que é feita em dois

estágios: primeiro é casualizado os níveis de um fator nas parcelas, no segundo estágio casualizar-se os

níveis do outro fator, nas subparcelas de cada parcela, deste modo cada uma das parcelas funciona como se

fosse um bloco para receber os níveis do segundo fator.

Nos experimentos fatoriais, todos os fatores são testados com um resíduo único, já nas parcelas subdivididas

são testados em dois resíduos um com base de comparação dos tratamentos principais, blocos, linhas e

colunas (se houver) e o segundo com base de comparação entre os tratamentos secundários e da interação

tratamentos principais x tratamentos secundários.

Ok 1

5. [] (IP:281473660056925 | 00:02:25 | 23:03:29 | 01:04 | 1.391)

Caso uma interação seja significativa, devo discutir os efeitos principais ligados a ela?

Justifique.

Resposta 5: Esta afirmação esta errada, pois no caso de uma interação ser significativa, NÃO devo discutir

mais os efeito principais, desde que os efeitos principais estejam envolvidos na interação.Quando avaliamos

um experimento e a interação dos fatores for significativo o efeito principal deixar de interessa para

discussão. Isto por que quando ocorre interação vamos discutir apenas a interação, os efeitos envolvidos

nesta ou nestas interações. Logo quando ocorre uma interação não posso mais discutir os efeitos principais,

por que não posso mais dizer que o fator A é melhor se o fator A depende de outros fatores, na interação um

efeito principal influencia outro, e os resultados de um são dependentes do outro.

Quando ocorre a interação entre os fatores a interação é significativa, o que mostra que os fatores que a

compõem tem efeito dependente entre si na determinação dos resultados de um experimento, e a partir dai

não faz mais sentido algum, discutir o efeito principal, pois o efeito das interações entre fatores serão

maiores do que o efeito de um único fator, deste modo não faz sentido fazer a analise estatística de um efeito

principal isoladamente, que participa de uma interação significativa, já que a discussão do efeito principal

neste caso não seria válida, apenas é valida a discussão da interação.

A resposta está correta, mas gostaria de saber de onde você tirou que uma frase que termina em ? é uma

afirmativa… 1

6. [] (IP:281473660056925 | 00:02:38 | 23:03:54 | 01:16 | 23.152)

Discuta a relação entre a regressão e um relacionamento causa-efeito.

Resposta 6: NÃO, não existe relação entre regressão e um relacionamento causa-efeito. A regressão apenas

representa matematicamente a relação entre tratamento e resposta dos dados trabalhados, não explica o que

ocorre ou porque ocorre. A regressão é um modelo matemático que liga duas ou mais variáveis, podendo a

variável dependente ser estimada a partir deste modelo. A regressão é uma ferramenta utilizada e já o

relacionamento causa-efeito é uma decisão científica e não ferramental, por isto ambas não apresentam

relação.

Excelente 1

7. [] (IP:281473660056925 | 00:09:59 | 23:04:44 | 54:45 | 0.972)

Discuta a afirmativa: "Amostragem é uma mistura de arte e ciência"

Questão 7: Discuta a afirmativa: "Amostragem é uma mistura de arte e ciência"

Resposta: Esta justificativa pode ser considerada verdadeira ou parcialmente verdadeira, pois quando vamos

fazer uma amostragem de solo devemos usar a ciência para fazer amostragem que seja significativa para a

área experimental e juntamente com a ciência posso usar a arte para implementar e complementar esta

amostragem, pois muitas vezes podem ocorrer uma interação entre as áreas de conhecimento. A arte aqui

relatada pode ser usada para fazer um coqui da área de coleta, desde que eu atenda os critérios para a

amostragem.

Embora a resposta esteja correta, a razão está completamente errada. A mistura se deve à necessidade de

experiência prévia do pesquisador em identificar, muitas vezes de forma difícil de explicar para outros,

porque a amostra deve ser coletada neste ou naquele ponto em particular. Isto é particularmente verdadeiro

quando o número de amostras é muito reduzido, como acontece por exemplo em classificação de solos 0

8. [] (IP:281473660056925 | 00:10:22 | 23:05:34 | 55:12 | 20.417)

Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado,

explicando como é o relacionamento.

Questão 8: Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado,

explicando como é o relacionamento.

Resposta: Podemos dizer que no modelo linear generalizado (MLG) é necessário que as variações ao acaso

sejam independentes das ocasionadas pelos os tratamentos, com isto tornar-se possível o isolamento dos

efeitos devido ao acaso. Relacionando o MLG com os princípios experimentais, temos que o principio da

repetição relaciona-se com o efeito do tratamento, já que o MLG é de caráter aditivo e este componente é

parte integrante do mesmo. O princípio da casualização nos assegura em termos de uma total independência

dos efeitos ocorridos entre as parcelas experimentais, podendo dizer assim que seja entre as repetições do

mesmo tratamento. Já o terceiro princípio experimental o controle local só é aplicado quando necessário e

seu objetivo é permitir que não ocorrar variações bruscas nas médias da variação do acaso. A aplicação dos

princípios experimentais nos proporciona reconhecer distintamente a ação devida ao tratamento daquele que

poderia ocorrer devido a causas desconhecida, ou seja, as variações do acaso e este reconhecimento é dado

por meio das observações que são apresentadas nas repetições de um mesmo tratamento. Isto é de suma

importância, uma vez que o aparecimento de valores extremos atribui erros para a variação do acaso levando

o experimento a uma situação de heterocedase e impossibilitando a determinação de um valor que represente

a variação do acaso, que deve estar em homocedase para que possa ser isolada do efeito dos tratamentos.

Meio confuso, mas ok 1

9. [] (IP:281473660056925 | 00:10:44 | 23:55:27 | 44:43 | 4.509)

Qual a principal contribuição que podemos esperar da análise de componentes principais?

A analise de componente principais é uma técnica estatística que pode ser utilizada para redução do numero

de variáveis e para fornecer uma visão estatisticamente privilegiada ddo conjunto de dados. A análise de

componentes principais fornece as ferramentas adequadas para identificar as variáveis mais importantes no

espaço das componentes principais.A análise de componentes principais serão apresentados descrevendo os

passos matemáticos e estatísticos a partir das necessidades de interpretação adequada da matriz de dados. O

entendimento exaustivo do assunto requer o conhecimento de operações com matrizes e por isso optamos

por uma abordagem conceitual usando as noções de álgebra linear.

Os componentes principais são as novas variáveis geradas através de uma transformação matemática

especial realizada sobre as variáveis originais. Esta operação matemática está disponível em diversos

softwares estatísticos especializados. Cada componente principal é uma combinação linear de todas as

variáveis originais. Por exemplo, um sistema com oito variáveis, após a transformação, terá oito

componentes principais. Cada uma destas componentes principais, por sua vez, será escrita como uma

combinação linear das oito variáveis originais. Nestas combinações, cada variável terá uma importância ou

peso diferente.

Q … vamos copiar, mas assim já é completamente ridículo. A impressão que passa é que vocês acham que

ou eu não leio a resposta, ou que estão com preguiça de pensar… “O entendimento… optamos por uma

abordagem…”. Se vai copiar, pelo menos tenta copiar fazendo sentido para a pergunta. Apenas a segunda

frase de sua resposta tem o mínimo de relação com a pergunta diretamente, o resto é somente o inicio de

algum texto de ensino, aparentemente no nível de graduação e com cara de apostila, para multivariada.

Realmente é de deixar qualquer um irritado. 0

10. [] (IP:281473660056925 | 00:11:08 | 23:06:15 | 55:07 | 2.088)

Compare as possíveis técnicas adotadas para seleção do modelo mais adequado para uma

regressão linear múltipla.

Questão 10: Compare as possíveis técnicas adotadas para seleção do modelo mais adequado para uma

regressão linear múltipla.

Resposta: Escolher bem o modelo mais adequado é importante, pois evita cometer o erro tipo I, sendo

necessário adotar algumas técnicas para evitar que isto ocorra. Temos várias técnicas adequadas para a

seleção da melhor regressão linear múltipla (RLM), dentre estes temos o modelo máximo que levam em

consideração a seleção das variáveis que poderão entrar no modelo, que não possuem co-linearidade entre as

variáveis, enquanto que especificar o critério de escolha possibilita selecionar valores adequados à regressão

que sejam utilizados como melhor coeficiente de determinação, fator F, nível de significância, esta estratégia

significa a avaliação do método que conduza ao critérios estabelecido, em que temos que testar todas as

regressões possíveis, eliminação para trás, seleção para frente, stepwise (forward), stepwise (backward),

NCSU, entre outros. Na condução da análise devemos, antecipadamente, checar as premissas básicas do

MLG e colinearidade dos dados e posteriormente verificar a confiabilidade do modelo por meio de estudo

confirmatório, entre outros.

Uma técnica muito usado é o método stepwise para a seleção da regressão linear. Qualquer procedimento

para seleção ou exclusão de variáveis de um modelo é baseado em um algoritmo que checa a importância

das variáveis, incluindo ou excluindo-as do modelo se baseando em uma regra de decisão. De modo geral

quanto maior a quantidade de variáveis melhor, em termo de confiabilidade. O método stepwise é uma

mistura de técnicas, que permite avaliar a contribuição de cada variável independente para o modelo.

Podemos usar também os modelos aninhados, onde um modelo está dentro do outro e são comparados o

valor de F entre os modelos. Devemos começar com o modelo completo e retira uma por uma das variáveis

e observa o que aconteceu, se ganhou ou perdeu.

Comparação? 0,75

11. [0.000] (IP:0 | 00:13:19 | --:--:-- | --:-- | ------ )

Será conduzido um projeto avaliando o efeito de características edafo-climáticas de municípios

representativos de cada microregião de Pernambuco sobre a microbiota do solo, incluindo

diversidade microbiana, respiração, biomassa, quociente metabólico, população de fungos,

nematóides e bactérias totais. Em cada municípios serão coletadas amostras de solo

representativas de cada tipo de solo descrito no Zoneamento Agroecológico de Pernambuco, e

coletados dados geoclimáticos juntos aos orgãos competentes.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

Em branco 0

12. [] (IP:281473660056925 | 00:18:22 | 23:07:57 | 49:35 | 0.946)

Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor

nível de um fator".

Questão 12: Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor nível

de um fator".

Resposta: Não, não podemos dizer qual é o melhor nível de UM fator porque quando ocorrer a interação

significativa, vou ter um fator influenciando outro fator, logo o nível de um fator só vai ter importância

quando associado com outro nível de um fator. Quando não ocorrer a interação significativa, devermos

então ter o melhor nível de um fator o qual poderá ser dado pelo o efeito principal.

Ok 1

13. [] (IP:281473660056925 | 00:18:40 | 23:09:08 | 50:28 | 0.799)

Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos,

em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique

e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

Resposta: O delineamento para este experimento será o Delineamento em Blocos Casualizados (DBC),

partindo do pressuposto que foram feito analises de solo e do ambiente e que os mesmos não apresentavam

condições homogêneas, ou seja, devido o ambiente ser heterogêneo o delineamento a ser aplicado dever-se o

DBC. Baseado ainda na heterogeneidade da área, o DBC será dividido em 4 blocos homogêneos.

O experimento então deverá ser montado em um DBC e em ARRANJAMENTO fatorial, neste caso o

fatorial será um de 10 x 5 (10 cultivares x 5 inoculantes) o que terá um total de 50 tratamentos vezes 4

repetições logo vamos ter um total de 200 repetições.

O arranjamento fatorial vai ser usado por que não temos área limitada para colocar o experimento. O uso do

experimento fatorial se justificar pelo o fato dos experimentos fatoriais simples serem bem mais eficientes,

pois os mesmos apresentam uma maior precisão em relação ao arranjamento de parcelas subdivididas.

Neste exemplo, o experimento será montado em um DBC composto por 4 blocos com 50 tratamentos cada

(os tratamentos são formados pela a combinação dos cultivares pela os inoculantes), onde o total do

experimento será de 200 repetições.

Esquema da analise de variância para o experimento

_____________________________________

Fontes de Variação --------- G. L ------------

_____________________________________

Tratamento (50 – 1) = 49

Blocos 4-1 = 3

Resíduo 199 – (49 + 3) = 147

______________________________________

Total (50 x4) -1 = 199

_______________________________________

Como em quase todas as respostas a este tipo de pergunta, identificou adequadamente que é um fatorial,

calculou certo o número de tratamentos, depois pegou isto, e simplesmente jogou no lixo, já que a análise de

variância não leva nada disto em consideração 0,25

14. [] (IP:281473660056925 | 00:19:05 | 23:09:35 | 50:30 | 0.82)

Explique como a escolha do delineamento pode afetar a precisão do experimento.

Resposta 14: A escolha do delineamento experimental também poderá afetar a precisão do experimento

quando temos uma área totalmente homogênea e aplicamos o controle local, ou seja usamos o Delineamento

em blocos casualizados (DBC) enquanto o delineamento correto para utilizamos era o delineamento

inteiramente casualizado (DIC) desta maneira vamos esta afetando a precisão do experimento pelo o fato de

estamos controlando um efeito, uma variação que não existe e com isso vamos ter perda de grau de

liberdade.

Podemos também afetar a precisão do experimento quando temos um ambiente que é heterogêneo (com

grandes variações na área) e por equivoco ou por não te um conhecimento da área experimental, o

pesquisador aplicou um DIC na área em vez de usar um DBC. Desta maneira vou afetar grandemente a

precisão do experimento, isso ocorre por exemplo quando tenho diferentes culturas sendo testada em uma

área experimental, vamos considerar que a área não seja homogênea logo as culturas que caírem no sorteio

nas áreas com melhores condições vão ter melhor resposta o que vai afeta significativamente a precisão do

experimento.

Ok, mas embora reconheça as duas possibilidades, não demonstra claramente entender a generalização 1

15. | 23:10:43 | 51:01 | 24.219)

Discuta o significado e possíveis implicações do AIC

Resposta 15: Primeiramente vamos discutir o significado do AIC. O critério informativo de Akaike (AIC) é

uma ferramenta para seleção de modelos, pois oferece uma medida relativa da qualidade do ajuste de um

modelo estatístico, ou seja, o AIC é um índice que nos permiti escolhe o melhor modelo para a regressão.

Este índice avalia ao mesmo tempo a qualidade de informação, qualidade da ligação entre as variáveis com o

número de variáveis que é utilizada, assim como a quantidade de variáveis que entra, com a quantidade de

dados explicados. O AIC não fornece um teste de um modelo no sentido usual de testar uma hipótese nula.

O AIC é um teste de máxima verossimilhança para verificar se o modelo escolhido é o adequado.

As implicações do AIC são em relação à escolha dos modelos utilizamos os valores de AIC para decidir qual

é o melhor modelo a ser utilizado, sendo assim quando temos um conjunto de modelos candidatos, o modelo

a ser utilizado é aquele que apresentar o menor valor de AIC (quanto menor for o valor de AIC melhor será

o ajuste do modelo aos dados recolhidos). O importante é que o modelo se ajuste bem aos dados junto ao

ponto (ou transecto). Este critério combina quanto o modelo explica com o número de variáveis usado para

isto. Quanto menor, mais o modelo explica com o menor custo em número de variáveis. Outra aplicação do

AIC é em modelo misto para selecionar qual modelo de co-variância é mais útil.

ok 1

16. [] (IP:281473660056925 | 00:20:00 | 23:34:14 | 14:14 | 4.804)

Explique porque podemos considerar que o nível de significância de uma regressão é menos

crítico do que sua importância intrínseca.

Resposta 16: A significância de uma regressão indica a chance máxima de uma variação ser devido ao

acaso, a importância é o interesse principal da regressão, tendo em vista que a maioria das regressões são

significativas isto as vezes pode não ser necessariamente importante. Muitas vezes experimentos são bem

conduzidos e vão até apresentarem regressões significativas mais não vão serem importantes. Desta forma

podemos considerar que o nível de significância de uma regressão é menos critico do que a sua importância

intrínseca, já que as regressões geralmente são significativas.

Ok 1

17. [] (IP:281473660056925 | 00:20:26 | 23:49:16 | 28:50 | 246.677)

Um experimento foi realizado em casa de vegetação, estudando vinte e cinco inoculantes

diferentes para quatro variedades de feijão, utilizando quatro repetições. Só há 50 potes

disponíveis. Indique arranjo e delineamento mais adequados, justifique e determine as fontes

de variação e graus de liberdade. Use tab para separar as colunas

Resposta: Primeiramente este experimento NÃO poderia ser conduzido desta forma, pois eu tenho 25

inoculantes x 4 tipos de feijão logo teremos 100 tratamentos e apenas 50 potes, assim teremos um número de

potes menores do que o número de tratamento, sendo assim em o experimento não poderá ser aplicado nem

em delineamento inteiramente casualizado (DIC) e nem em delineamento em blocos inteiros casualizados

(DBC). O experimento deverá ser realizado em Bloco casualizado incompleto parcialmente balanceado,

devido o numero de tratamentos não caberem todos dentro de um mesmo bloco. Por este motivo deverá ser

feito em Blocos incompletos.

Fonte de variação G.L

Repetição(r-1) 3

Tratamento(não ajustado)(k²-1) 99

Blocos (dentro das repetições)(r(k-1)) 36

Erros intrablocos(k-1)(rk-k-1) 261

Tratamento(ajustado)(k²-1)

Total(rk2-1) 399

Assim como aconteceu no último caso em que esta situação apareceu, acertou o delineamento, que aliás não

era minha intenção de solicitar, já que não havíamos discutido esta possibilidade, mas esqueceu

completamente o fatorial. Só se livrou porque conseguiu cobrir bem o outro problema. 1

18. [] (IP:281473660056925 | 00:21:04 | 23:13:06 | 52:02 | 0.812)

Um experimento foi conduzido em laboratório estudando a resistência de 100 estirpes

rizobianas a três temperaturas. Serão utilizadas dez repetições e as estufas bacteriológicas

disponíveis só cabem 500 placas de petri de cada vez. Indique arranjo e delineamento mais

adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para

separar as colunas

Resposta: O delineamento a ser usado deverá ser o Delineamento em blocos casualizados (DBC), devido ao

limite das estufas de só caberem 500 placas de Petri por vez e devido as LIMITAÇÕES OPERACIONAIS

da equipe de fitopatologistas que vão fazer a observação das placas. Com isso o DBC contará com 10

blocos, como temos 100 estirpes com 3 temperaturas diferentes vamos ter um total de 300 tratamentos. Os

300 tratamentos x 10 repetições dará um total de 3000 repetições. Logo as 3000 repetiçoes serão divididas

em 10 blocos totalizando 300 placas por blocos.

Esquema da analise de variância para o experimento

_____________________________________

Fontes de Variação ----- G. L ------------

_____________________________________

Tratamento (300 – 1) = 299

Blocos 10-1 = 9

Resíduo 2999 – (299 +9) = 2.691

______________________________________

Total (300 x10) -1 = 2.999

_______________________________________

Mesmo problema de sempre 0,25

19. [] (IP:281473660056925 | 00:21:22 | 23:13:12 | 51:50 | 4.889)

Discuta a importância da repetição real, e suas consequências na avaliação dos fatores.

Resposta: O número de repetição real significa quantas vezes um determinado fator que compõe seu

tratamento vai aparecer no experimento, ao qual está relacionado com os níveis dos fatores e com o número

de repetições físicas do experimento, como pode haver diferentes números de níveis para cada fator, cada

nível de um fator pode aparecer em quantidades diferentes. A importância e consequência da repetição real

na avaliação de fatores é que a mesma nos permite estuda os efeitos principais dos fatores caso não ocorra

interação entre eles. Uma grande importância da repetição real é que assim teremos um número maior de

repetições e com isto é possível verificar melhor a diferença entre cada fator e a relação entre estes, além de

ser mais fácil separar o efeito do acaso do efeito do tratamento.

Ok 1

20. [] (IP:281473660056925 | 00:22:13 | 23:15:31 | 53:18 | 1.353)

Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para

preveni-la.

Resposta 20: A heterocedase corresponde a variação do acaso diferente, o que é o contrário de um dos

parâmetros para aplicação do modelo linear generalizado que é a homocedase, ou seja, a heterocedase

impossibilita um dos pontos do modelo linear generalizado que é a possibilidade de atribuir a influencia de

um mesmo acaso em todos os tratamentos nas diferentes parcela. A heterocedase pode vim a acarreta na

elevação do nível de significância, aumentando assim o erro tipo I, o que pode induzir o pesquisador a

conclusões erradas. Quando ocorre a heterocedase não é possível encontrar um valor que represente as

variações do acaso, visto que, o próprio acaso variou entre si sem ser possível sua representatividade por um

único valor.

Como maneira eficaz para prevenir a heterocedase podemos adotar um maior controle no experimento, o

qual dever ser realizada desde simples trabalhos como pesagens e medidas garantindo assim a maior

exatidão até o uso de controle local para garantir que seja mínimas as variações do acaso e para garantir que

os efeitos observados sejam apenas dos tratamentos, para prevenir a heterocedase também podemos fazer o

uso de testes tais como de Cochran, Hartley e Bartlett os quais são utilizados para verificação da

homocedase.

Ok 1

21. [] (IP:281473660056925 | 00:22:33 | 23:16:49 | 54:16 | 7.38)

Compare os efeitos principal e secundário de uma interação, do ponto de vista das informações

que podem ser obtidas a partir deles.

Resposta 21: O Efeito principal de uma interação é o efeito de cada fator isolado, ou seja, de cada fator

como se fosse o único efeito sendo estudado no experimento, neste caso cada fator tem o seu efeito

principal.

O Efeito secundário ocorre quando ha interações entre os fatores estudados, neste caso podemos dizer que

um ou mais fatores vai (vão) afetar a resposta de outro fator. Quando a interação não é significativa vou

discutir cada efeito isoladamente. Quando a interação é significativa não faz mais sentido algum, discutir o

efeito principal.

Como exemplos podemos considerar que temos dois sistema de plantio: o direto e convencional, e a soja

plantada com ou sem a nodulação de rizóbios. Neste caso, se não houver interação vamos discutir o efeito

principal dizendo qual é o melhor sistema de plantio e qual é a melhor soja com o sem nodulação. Caso

ocorra interação significativa entre os fatores vamos discutir apenas a interação, por que a partir dai já não

faz mais sentido esta discutindo o efeito principal. Então vamos dizer qual foi a melhor soja baseado em um

dos sistemas de plantio, e qual foi o melhor sistema de plantio com base em uma soja, seja ela com o sem

nodulações.

A respeito das informações que podemos retirar destes efeitos são que quando ocorre a interação, ela explica

mais do que o efeito principal, por que na interação estamos explicando o que esta acontecendo devido à

interação dos fatores, assim explicamos um resultado com base do que esta acontecendo no conjunto de

fatores. Quando ocorre a interação podemos dizer o quanto que um fator afeta o outro fator. Quando não

ocorrer a interação podemos dizer que os fatores são independentes entre sim.

Efeito principal de uma interação é simplesmente doloroso, mas vou dar um desconto, já que pelo menos

parte da culpa é da forma como escrevi a questão (erradamente) 1

22. [] (IP:281473660056925 | 00:22:53 | 23:34:09 | 11:16 | 1009.639)

Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de

informação que podemos tirar deles

Resposta 22: Os testes de hipótese podem ser o teste F (para a analise de variância), e os de comparação de

médias teste t de Student, teste de Tukey e o teste Qui Quadrado. O teste F, consiste na decomposição da

variância total, tem por finalidade comparar estimativas de variâncias e dos graus de liberdade em partes que

podem ser atribuídas a causas conhecidas e independentes (fatores que podem ser controlado) e a uma

porção residual de origem desconhecida e natureza aleatória (fatores não controlados). Quando o teste F for

significativo e tivermos comparando apenas dois tratamentos não precisar-se aplicar nenhum outro teste para

saber se a hipótese é aceitável ou não, no entanto quando há mais de dois tratamentos, fazendo apenas o

teste de F não podemos indicar qual o melhor tratamento, sendo então necessário aplicar os testes de

comparação de médias que pode ser o teste t de Student que server para comparamos médias de dois

tratamentos ou médias de dois grupos de tratamentos nos casos em que o contraste tem mais de duas medias

envolvidas.

Outro teste é o Tukey que é muito utilizado por ser bastante rigoroso e de fácil aplicação, este teste não

permite comparar grupos de tratamentos entre si, ele é utilizado para testar toda e qualquer diferença entre

duas médias de tratamento. Outro teste é o Qui Quadrado, que é um teste de hipóteses, que apresenta como

objetivo encontrar um valor da dispersão para duas variáveis nominais, avaliando a associação existente

entre variáveis qualitativas. Este teste não depende dos parâmetros populacionais, como média e variância.

O Qui Quadrado buscar possíveis divergências entre as frequências observadas e esperadas para certo

evento.

As informações que podermos retirar com os testes de hipóteses esta relacionada em dizer se o nossos

tratamentos estudados são iguais ou diferentes ao já existente (H0), o teste F quando comparamos apenas

dois tratamentos pode nos dizer qual é o melhor tratamento, quando estamos avaliando três ou mais

tratamentos aplicamos os teste de comparação de média que nos dirá qual tratamento apresentar os melhores

resultados e/ou os piores, e também mostrará quais tratamentos são iguais estatisticamente.

Muitas vezes as informações nos testes de hipótese podem esta relacionadas a erros que são o erro tipo I e

tipo II. A escolha da melhor hipótese alternativa tem importância por influenciar no poder do teste, que é

definido como sendo a probabilidade de rejeitar H0, quando ela for falsa, ou aceitar H1, quando ela for

verdadeira.

Confuso, mas ok em linhas gerais 1

1. [] (IP:281473857232357 | 11:28:32 | 23:35:39 | 07:07 | 167.094)

Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor

nível de um fator".

Resposta: Quando avaliamos um fatorial, podemos avaliar o efeito principal de cada fator, analisado

individualmente ou quando ocorrer interação significativa entre os fatores devemos fazer a avaliação da

interação, não sendo necessário realizar a avaliação dos efeitos principais dos fatores participantes daquela

interação. Logo, a afirmativa acima não é verdadeira, uma vez que a interação é o resultado da interação dos

dois fatores não podendo separar o que é de cada fator por isso quando ocorre interação o efeito do fator

isoladamente é ignorado, pois a interação é superior ao efeito isolado de um fator.

Ok 1

2. [] (IP:281473857232357 | 11:29:45 | 23:40:47 | 11:02 | 305.389)

Porque podemos afirmar que a hipótese é o ponto mais importante de um projeto de pesquisa

Resposta: Sim, pois a hipótese é o ponto chave de um projeto de pesquisa, ela é que vai direcionar as todas

as atividades e análises a serem feitas, tanto como o a forma como o experimento será conduzido e quais

análises estatísticas serão feitas.

Ok 1

3. [0.000] (IP:0 | 11:30:47 | --:--:-- | --:-- | ------ )

Discuta diferentes estratégias para seleção do melhor modelo de regressão linear múltipla

Em branco 0

4. [0.000] (IP:0 | 11:31:03 | --:--:-- | --:-- | ------ )

Devemos tomar algum cuidado em particular ao combinar os fatores para a formação dos

tratamentos?

Em branco 0

5. [] (IP:281473857232357 | 11:31:25 | 23:42:00 | 10:35 | 8.194)

Todo fatorial com o mesmo número de tratamentos tem o mesmo grau de complexidade?

R: Não. Pois o grau de complexidade de um experimento é dado pelo número de fatores e não pelo número

de tratamentos. Por exemplo, um experimento com dois fatores um com quatro níveis e outro com dois,

serão no total oito tratamentos. Outro experimento, com três fatores cada um com dois níveis, serão no total

oito tratamentos, semelhantemente ao primeiro experimento, contudo neste último pode ser que apareça um

interação tripla, enquanto no experimento anterior o máximo que pode aparecer são interações duplas, sendo

a interação tripla mais complexa.

Excelente 1

6. [0.000] (IP:0 | 11:31:40 | --:--:-- | --:-- | ------ )

Descreva situações em que o uso da multivariada seria interessante em trabalhos de

experimentação.

Em branco 0

7. [] (IP:281473857232357 | 11:31:53 | 23:43:01 | 11:08 | 17.236)

Discuta as aplicações da medição repetida em solos.

Resposta: Em solos, as medições repetidas podem ser utilizadas principalmente na área de gênese e

classificação do solo, já que não é viável a utilização de outras análises estatística nessa situação. Esta

consiste de medições de uma mesma unidade experimental ao longo do tempo a fim de avaliar o

comportamento desta no decorrer das avaliações. Tal análise pode ser feita em avaliações do

desenvolvimento de plantas, onde posteriores avaliações dependem de ocorrências anteriores.

Desde quando a gênese utiliza medições de desenvolvimento de plantas, pelamordedeus? Já é o segundo

aluno a copiar esta afirmativa de algum canto (já que as duas afirmativas estão exatamente iguais), e nos

dois casos logo após esta afirmativa diz exatamente o contrário. 0,5

8. [] (IP:281473857232357 | 11:32:07 | 23:43:45 | 11:38 | 3.444)

Diferencie fatorial de parcela subdividida, em termos de uso.

Experimentos fatoriais avaliam os fatores como um todo, cada fator ou interação dentro de parcelas

individuais. Onde, na principal característica da parcela sub dividida é a casualização dos níveis dos fatores,

que é feita em dois estágios: primeiro é casualizado os níveis de um fator nas parcelas, no segundo estágio

casualizar-se os níveis do outro fator, nas subparcelas de cada parcela, deste modo cada uma das parcelas

funciona como se fosse um bloco para receber os níveis do segundo fator.

A principal diferença não é o sorteio, mas a divisão do acaso. Diferença pouco explicitada 0,75

9. [] (IP:281473857232357 | 11:32:09 | 23:44:28 | 12:19 | 42.198)

Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado,

explicando como é o relacionamento.

No modelo linear generalizado exige-se que as variações devido aos tratamentos e ao acaso sejam

independentes para que seja possível separar variações que foram devido aos tratamentos daquelas devido ao

acaso, atendendo assim a premissa da aditividade. Quando relacionadas com os princípios experimentais, a

casualização faz com que nenhum dos tratamentos seja favorecido, possibilitando que os erros sejam

independentes através do aleatorização das amostras na parcela. Já a repetição, possibilita avaliar a variação

do acaso nos tratamentos, podendo-se determinar a variação no conjunto, podendo-se separar efeito do acaso

do efeito do tratamento, possibilitando a homocedase no experimento. O controle local quando aplicado

evita que a variação do acaso tenha variações bruscas conservando as caondições de homocedase.

Ok 1

10. [] (IP:281473857232357 | 11:32:27 | 23:45:06 | 12:39 | 35.093)

Como as repetições reais podem afetar a significância de algum efeito?

A repetição real diz respeito a quantas vezes o efeito principal aparece no experimento. Quanto maior o

número de repetições reais, melhor se diferencia as variações do acaso e dos tratamentos, podendo-se

determinar as diferenças entre os fatores avaliados. Dessa forma, quanto maior o número de repetições reais

maior a significâncias dos resultados encontrados durante o experimento.

Ok 1

11. [] (IP:281473857232357 | 11:32:40 | 23:48:13 | 15:33 | 183.185)

Diferencie interação e efeito principal.

: Dentro de experimentos fatoriais, pode-se distinguir dois tipos de efeito. Os efeitos principais, que dizem

respeito aos efeitos dos fatores independentemente sem levar em consideração os outros fatores, e as

interações que são devido a influencia de um fator sobre o outro, demonstrando que não houve

independência entre os fatores, já que a interação dos fatores foi significativa.

Ok 1

12. [0.000] (IP:0 | 11:32:57 | --:--:-- | --:-- | ------ )

Será realizado um experimento avaliando a decomposição de resíduos aos 0, 2, 4, 8, 16, 32, 64 e

128 dias de plantas de quatro espécies diferentes, com amostragem destrutiva e quatro

repetições. Em cada amostragem serão determinadas a matéria seca remanescente, teores e

conteúdos totais de C, N, P, lignina e as relações entre cada um dos nutrientes e C, entre eles e

lignina, bem como entre os nutrientes.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

Em branco 0

13. [] (IP:281473857232357 | 11:33:10 | 23:48:59 | 15:49 | 4.651)

Qual a principal vantagem do uso de regressões não lineares?

Nos modelos de regressões não lineares, ao invés de fazer uma descrição puramente empírica do fenômeno

estudado, pode partir de suposições importantes sobre o problema se obter uma relação teórica entre as

variáveis observáveis de interesse. A grande vantagem é a simplificação da realidade através de parâmetros

que são facilmente interpretáveis.

Ok 1

14. [0.000] (IP:0 | 11:33:22 | --:--:-- | --:-- | ------ )

Avalie o efeito de diferentes estratégias de seleção do melhor modelo sobre a probabilidade de

ocorrência de erro do tipo I.

Em branco 0

15. [] (IP:281473857232357 | 11:33:36 | 23:49:39 | 16:03 | 6.101)

Discuta a afirmativa: "Muitas vezes uma amostragem completamente aleatória não representa

bem a população"

A técnica de amostragem consiste na coleta de amostras que representem a população já que na maioria das

vezes a avaliação de toda a população é inviável. Estas amostras precisam ser coletadas de forma aleatória

para garantir que não haja coletas concentradas em uma área que não representativa da população

comprometendo a validade da amostragem. Contudo, mesmo fazendo-se amostras aleatórias, corre-se o

risco, ainda que menor, de se coletar amostras não representativas, onde os resultados não servirão para

representar o que acontece na população.

Tudo bem que o risco sempre existe, mas não foi esta a afirmativa. A afirmativa foi de que isto acontece

com frequência, porque existem estratificações na população que uma amostragem simplesmente aleatória

tem grande chance de não ver. Para isto existe a segmentação da amostragem em camadas, cada uma

representativa de uma subpopulação, e sujeita a um esforço amostral independente. 0,5

16. [] (IP:281473857232357 | 11:33:49 | 23:50:56 | 17:07 | 1.612)

Um experimento vai avaliar dez doses de fósforo em cinco solos diferentes em casa de

vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e

determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

De acordo com os dados mostrados acima, o delineamento mais adequado a ser aplicado neste caso é o

delineamento em blocos casualizados, pois o experimento será conduzido em casa de vegetação e levando-

se em consideração que a mesma não apresente uniformidade em relação ás condições ambiental. Neste

caso, utilizando-se o DBC pode-se obter maior uniformidade entre os tratamentos no interior dos blocos.

Com relação ao arranjamento, o que melhor se adéqua é o fatorial duplo 10 x 5 em vez de parcela

subdividida, já que tem-se a limitação de se realizar o experimento em casa de vegetação onde não é

possível a realização da parcela, e este viabiliza a avaliação dos fatores propostos no ambiente de casa de

vegetação.

F.V G.L

Tratamento 50-1 = 49

Bloco 4-1 = 3

Resíduo 199-(49+3) = 147

Total (50x4)-1 = 199

Como em todos os casos até aqui, identificou corretamente o fatorial, e não levou isto em consideração na

análise dos dados 0,25

17. [] (IP:281473857232357 | 11:34:02 | 23:51:24 | 17:22 | 27.886)

A escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os

tratamentos?

Sim. Pois o delineamento escolhido deve reduzir ao máximo a soma dos quadrados gastando o mínimo de

graus de liberdade, diminuindo o coeficiente de variação e aumentando a precisão da análise. A escolha do

delineamento correto implica na correta determinação dos efeitos dos tratamentos.

Ok 1

18. [0.000] (IP:0 | 11:34:15 | --:--:-- | --:-- | ------ )

Um experimento vai ser conduzido no campo avaliando 100 novos clones de palma forrageira

com adubação orgânica, mineral ou uma combinação, com duas repetições.Indique arranjo e

delineamento mais adequados, justifique e determine as fontes de variação e graus de

liberdade. Use tab para separar as colunas

Em branco 0

19. [] (IP:281473857232357 | 11:34:29 | 23:52:00 | 17:31 | 5.997)

Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para

preveni-la.

Num experimento busca-se que a variância dos resíduos ocorra de maneira mais uniforme possível para que

esta variação possa ser representada por um único valor. Quando esta variação apresenta-se diferente para

todos os tratamentos, este fenômeno estatístico chama-se de heterocedase e consiste na não

representatividade da variação entre os tratamentos por um único valor. Curtoses positivas e a assimetria são

as principais consequências da heterocedasticidade. A ocorrência da heterocedase faz com que o teste F não

seja realizado, pois a curtose positiva e a assimetria afeta a confiabilidade do teste, pois o mesmo tenderia a

não rejeitar a hipótese nula, mesmo ela sendo incorreta, levando a dizer que os dados sejam homocedaticos

sem ser. Para prevenir a heterocedase deve-se fazer o uso dos testes de Cochran, Hartley, Bartlett e Levene.

Estava indo tão bem até misturar curtose na história… curtose e assimetria estão ligadas à falta de

normalidade, e não a heterocedase 0,75

20. [] (IP:281473857232357 | 11:34:46 | 23:52:30 | 17:44 | 27.083)

Explique porque podemos considerar que o nível de significância de uma regressão é menos

crítico do que sua importância intrínseca.

Um experimento bem elaborado e conduzido pode apresentar dados significativos devido a sua

representatividade estatística, mas não ser importante. A significância indica a chance máxima da variação

ser devido ao acaso. O interesse maior, na regressão, é a importância. Pois a maioria das regressões são

significantes, o que as vezes pode não ser necessariamente importante, pois a importância vai expressar a

ligação entre as variáveis, o que oferece ao pesquisador melhores condições de explicar cientificamente o

efeito de seus resultados.

Ok, embora não tenha a menor ideia da relação das duas primeiras frases com a pergunta 1

21. [] (IP:281473857232357 | 11:34:58 | 23:53:17 | 18:19 | 1.036)

Um experimento vai ser conduzido em laboratório avaliando o crescimento de Atriplex em

solos com cinco diferentes níveis de condutividade elétrica, e em quatro espaçamentos

diferentes, e cinco repetições. Indique arranjo e delineamento mais adequados, justifique e

determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

Para realização experimento em campo, o delineamento mais adequado a ser aplicado seria o delineamento

em blocos casualizados, pois o experimento estaria num ambiente que não apresenta uniformidade em

relação ás condições ambientais. Neste caso, utilizando-se o DBC pode-se obter maior uniformidade entre os

tratamentos no interior dos blocos. Com relação ao arranjo, o melhor seria o fatorial duplo 5 x 4 já que

devido as condições é inviabilizado o uso da parcela sub dividida e do quadrado latino.

F.V G.L

Tratamento 20-1 = 19

Bloco 5-1 = 4

Resíduo 99-(19+4) = 76

Total (20x5)-1 = 99

Mesmo problema da maioria das respostas a estas situações, com a ausência do reconhecimento do fatorial

no esquema, embora tenha sido reconhecido na resposta textual 0,25

22. [] (IP:281473857232357 | 11:35:15 | 23:55:32 | 20:17 | 133.653)

Discuta os principais critérios que devem ser adotados na seleção do delineamento

experimental.

Podem ser utilizados critérios estatísticos de avaliação, como o coeficiente de regressão (R), o coeficiente de

determinação (R²), coeficiente de determinação corrigido (R²c), e estatística t ou F.

Isto é resposta que se dê no mestrado… os itens estão certos, mas chamar isto de discussão é ridículo 0,25

1. [] (IP:281473826425559 | 01:00:15 | 20:53:52 | 53:37 | 59.519)

Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para

preveni-la.

A heterocedase é um problema sério porque significa que os dados são provenientes de tratamentos que

sofreram a variação do acaso de forma diferentes e dessa forma predições seriam atribuídas ao tratamento

sendo possível de ser devido a efeito do acaso, inviabilizando a utilização do modelo linear generalizado e

ainda pode aumentar as chances de o correr erros do tipo I. Para garantir a homocedase uma das premissas

mais importantes a ser seguida em um experimento, porque mantendo as parcelas distribuídas de forma

homogênea, os efeitos do acaso estariam exercendo influência também de forma homogênea para todos os

tratamentos, e dessa forma podemos admitir que a variação do acaso como zero, já que ela se apresenta

“igual” para toda a parcela experimental. ara se prevenir deve-se não perder de vista os objetivos da

pesquisa, usar números iguais de repetições, fazer os testes de Levene, Cochran, Hartley, Bartlett, para

averiguar a homocedase, caso contrário deve-se fazer as transformações: (raiz quadrada, log10, potência

elevada,etc). Caso não resolva com as transformações, eliminar outlier.

Apenas a ressalva de que não é a variação do acaso que é zerada, mas o conjunto da variação do acaso de

um tratamento. 1

2. [] (IP:281473826425559 | 01:02:41 | 20:55:20 | 52:39 | 82.72)

Como podemos determinar o número de unidades amostrais em um projeto a ser conduzido

em área sem informação prévia?

O primeiro passo é fazer uma revisão bibliográfica para ver quais foram os parâmetros utilizados para

determinar qual critério deve ser levado em consideração para teste de diferentes tamanhos de unidades de

amostrais, a intensidade amostral, nos últimos trabalhos com mesmo tema do projeto em questão projeto.

Faz então uma mine amostragem e através da variância, aplica-se na formula, N=4 σ^2/L² . om n sendo o

número de unidades amostrais, σ a variância e L sendo o erro máximo tolerado na mesma unidade da

medida. Custo desse levantamento preliminar deve ser extrapolado para a área do projeto e observado a

viabilidade econômica.

Ok 1

3. [] (IP:281473826425559 | 01:04:46 | 20:57:12 | 52:26 | 33.896)

Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da

agronomia. Justifique.

O experimento vai avaliar diferentes tipos de podas de condução em videiras em relação a indução da

floração. O terreno é declivoso, com manejo em curvas de nível no contorno da encosta. O delineamento

será com controle local, quadrado latino. Sendo seis tipos de poda de condução com seis repetições. As

colunas são dispostas no sentido morro abaixo acompanhando o movimento aparente do sol durante o dia

garantindo que a luz do sol nos horários de maior incidência seja distribuída de forma homogênea de acordo

com a inclinação do terreno. Nas linhas o experimento segue o sentido das curvas de nível garantindo que

cada bloco tenha homogeneidade edáfica. A escolha do quadrado latino é em virtude do conhecimento que o

manejo em curva de nível seleciona características distintas no solo em cada cota (Linhas). E a inclinação do

terreno com face para o lado norte privilegia as plantas de topo com maior incidência da luz do sol, só

incidindo nas baixadas durante poucas horas da tarde ( coluna). Os tratamentos serão distribuídos de forma,

que apareçam somente uma só vez em cada linha e em cada coluna. Com essa ferramenta deseja-se controla

a heterogeneidade do ambiente onde será conduzido e conduzir a uma estimativa menos elevada do erro

experimental.

Excelente imaginação para a situação. 1

4. [] (IP:281473826425559 | 01:06:39 | 21:12:16 | 05:37 | 3.022)

Um experimento vai avaliar a tolerância de 100 estirpes de rizóbio a meio de cultura ácido com

três níveis diferentes de cloreto de cálcio em sua composição. Serão usadas 10 repetições.

Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e

graus de liberdade. Use tab para separar as colunas

O experimento será conduzido em blocos ao acaso em parcelas sub divididas . A escolha desse delineamento

se dá pela impossibilidade de se preparar e conduzir um experimento com 3000 (três mil) amostras em DIC,

por que tanto o espaço da estufa como o tempo de execução não permite a condução em uma só vez, logo as

condições de umidade e temperatura assim como a condução do técnico em uma segunda ou terceira bateria

de amostras não ofereceria, necessariamente as mesmas condições de variabilidade. Nesse ensaio a unidade

amostral é a placa de petri, sendo o crescimento da colônia bacteriana no meio de cultura a variável em

análise. Os tratamentos em comparação são: Tratamento Principal (P) = estirpes de risóbio (P¹, P²,P³....P¹°°)

e tratamentos secundários (S) = níveis deferentes de cloreto de cálcio ( S¹, S² e S³). quatro repetições sendo

cada repetição representada por uma placa de petri. Considerando que cada bateria vai ser preparada e

incubada em condições não similares, os tratamentos e as repetições serão distribuídas num delineamento

em blocos, em parcelas subdivididas. Como a câmara de incubação suporta em boas condições até 500

placas de petri e o tempo de incubação é de duas semanas os blocos serão dispostos em seis baterias de 500

placas a cada 15 dias.

FV GL GL

Blocos 6-1 5

Tratamento (P (100-1) 99

Resíduo (a) (100-1)((100-1)+(3-1)) 9999

Parcela (100-1) 99

Tratamento(S) 3-1 2

Interação (p)x(s) (100-1)(3-1) 198

Resíduo (b) 300-(100-1)-(3-1)-(100-1)(3-1) 5

Total 300 x 10 -1 2999

O que ser ou não DIC tem a ver com ser ou não em subdividida? De onde apareceu este limite da estufa ?

Não faz qualquer sentido pensar em subparcela, e você não descreve qualquer razão para isto, pelo menos

que eu tenha identificado. Finalmente, como o GLR(a) é maior do que o GLR(b), pelamordedeus? 0

5. [] (IP:281473826425559 | 01:10:49 | 21:12:53 | 02:04 | 36.16)

Qual nível apresenta maior precisão em uma parcela subdividida e porque?

As parcelas principais são mais susceptíveis a variação do acaso o controle local é feito com a adoção de sub

parcelas , logo o grau de liberdade do resíduo é menor na parcela principal, logo os dados obtido no nível de

sub parcela é mais preciso que os da parcela principal.

Ok 1

6. [] (IP:281473826425559 | 01:12:24 | 21:13:36 | 01:12 | 38.972)

Explique porque podemos considerar que o nível de significância de uma regressão é menos

crítico do que sua importância intrínseca.

O nível de significância está relacionado com as chances de se cometer os erros de hipótese logo às

probabilidades dos efeitos serem ao acaso e não ao tratamento ministrado podem conduzir a erros do tipo I.

Ou seja aumentar o nível de significância reduz as chances de cometer o erro tipo I. A tomada de pode ter

consequências danosas quando esta referência é negligenciada em um nível de significância muito baixo, e

afirmarmos que os efeitos são do tratamento quando são devidos ao acaso.

Tem certeza de que leu a pergunta? 0

7. [] (IP:281473826425559 | 01:14:33 | 21:14:03 | 59:30 | 24.178)

Discuta a afirmativa: "No caso de uma interação, não devemos analisar qualquer efeito

principal."

Quando se avalia influências entre tratamentos para se obter um efeito e se confirma que ocorreu pelo menos

uma interação, qualquer efeitos principal perdem toda e qualquer importância, por que apartir da interação

os efeitos da associação de tratamentos é que vai governar as discussões. Nesse caso não se analisa efeitos

principais isoladamente.

Não são todos os efeitos principais que perdem a importância, como você afirma, mas apenas aqueles

envolvidos em alguma interação 0,75

8. [] (IP:281473826425559 | 01:16:26 | 21:14:31 | 58:05 | 25.778)

Como as repetições reais podem afetar a significância de algum efeito?

As amostras tem o papel de representar de forma mais fiel as características de uma população sendo que

mesmo buscando-se a exaustão colher amostras que representem de forma fidedigna aquela população,

diferenças vão ocorrer devido a fatores desconhecidos que são difíceis de serem controlados, diferenças do

acaso, então as repetições das parcelas experimentais contendo os mesmos tratamentos, tem dois objetivos:

obter uma melhor estimação do efeito do tratamento e possibilitar a determinação do erro experimental, e

portanto fornecer a informação necessária para testar a significância das diferenças encontradas entre médias

e tratamentos.

Não tenho a menor ideia nem do que você quis dizer, nem da relação disto com a pergunta 0

9. [] (IP:281473826425559 | 01:17:28 | 21:18:20 | 00:52 | 1.416)

Um experimento vai ser conduzido avaliando o efeito de três manejos de irrigação, com cinco

níveis de estresse e quatro solos distintos no sorgo, em casa de vegetação, com quatro

repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de

variação e graus de liberdade. Use tab para separar as colunas

O experimento será conduzido em delineamento inteiramente casualizado em arranjo fatorial com 3 fatores.

Onde a unidade amostral será a planta de sorgo a variável em análise e massa seca da parte aérea e será

medida em kg por planta. Os tratamentos em comparação são: Tratamento I = Manejos de irrigação (A,B e

C), Tratamento II = Estresse (T,U,V,X e Z) e Tratamento III = Tipos de solos (L,M,O e P). 04 (quatro)

repetições sendo cada repetição representada por uma planta de sorgo. Considerando que o ensaio será

realizado em condições controladas, os tratamentos e as repetições serão distribuídos num delineamento

inteiramente casualizado, em arranjo fatorial.

Causa de variação GL GL

Manejos de irrigação(I) 3-1 2

Níveis de estresse (II) 5-1 4

Tipos de solos (III) 4-1 3

Interação I x II (3-1)(5-1) 8

Interação I x III (3-1)(4-1) 6

Interação II x III (5-1)(4-1) 12

Interação I x II x III (3-1)(4-1)(5-1) 24

Tratamento 60-1 59

Resíduo 4-1 3

Total (60 x 4) -1 239

Não concordo com o dic para um experimento deste tamanho, mas vá lá que seja. Infelizmente, o GLR está

completamente errado, já que 239-59=180, não … aparentemente calculou o GL para blocos, embora

esteja chamando de GLR. Só não vai zerar a questão porque infelizmente a maioria dos seus colegas não

conseguiu acertar o esquema (embora tenham acertado o cálculo do GLR) 0,75

10. [] (IP:281473826425559 | 01:23:47 | 21:18:45 | 54:58 | 24.38)

Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.

Os outliers são pontos que apresentam discrepâncias em comparação com o comportamento da maioria da

massa de dados, aparentemente essas observações que resultam em comportamentos tão diferentes da

maioria são inconsistentes e certamente foram produzidas por erros de execução como: erros de medições,

erros induzidos, fraudes e variabilidade dentro da população. Geralmente para se observar a ocorrência de

outliers é necessária a observação dos gráficos dos dados. Os gráficos mais usados para diagnosticar outliers

são; Gráfico box, histogramas e também testes como os de Dixon e Grubbs, e para testar a homogeneidade

da variância são usados os testes de Barttet, Cohran, Harttley e Levene. Contudo uma recapitulação para

identificar as causas que levaram a produzir outliers em alguns casos a remoção de observações discrepantes

como outliers pode levar a perdas de informações e essa decisão é uma decisão de pesquisa e não de

estatística.

Ok 1

11. [] (IP:281473826425559 | 01:25:07 | 22:05:05 | 39:58 | 5.374)

Um projeto será conduzido para avaliar o efeito de tempo de cultivo com mandioca, cana,

milho e pastagem sobre a qualidade do solo nas três macro-regiões pernambucanas, de forma

independente para cada uma. Em cada macro-região serão selecionados quatro municípios

distintos, que serão as repetições, e em cada município serão avaliados cinco tempos de cultivo

e uma área de vegetação nativa. Serão avaliadas características físicas, químicas e

microbiológicas do solo, bem como sua profundidade por tradagem.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

A experimento teve o objetivo de avaliar a atributos Químicos, físicos e microbiológica e as profundidade

do solo do solo das três micro regiões pernambucana ( zona da mata, agreste e sertão) sob cultivo e com

vegetação nativa. Sendo avaliado na zona da mata cultivo de cana-de açúcar, pastagem e sob solo de mata,

agreste cultivo de milho, pastagem e solo de mata e sertão cultivo de mandioca, pastagem e sob mata. Cada

micro região com quatro cidades representando as repetições. A análise Multvariada será usada para avaliar

as variáveis simultaneamente de forma integrada os dados devem ser expostos em tabelas e análise de

covariância isola o efeito de uma variável quantitativa

A única coisa que não foi repetição da pergunta foi a última frase. Infelizmente, aparentemente não leu a

pergunta, já que não respondeu quase nada dela… 0,25

12. [] (IP:281473826425559 | 01:36:10 | 21:20:52 | 44:42 | 41.717)

Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de

confiança que o pesquisador pode ter em suas afirmativas.

Princípios básicos da experimentação: Repetição Casualização e controle local. O uso da repetição serve

para diminuir tendências e prover uma estimativa do erro experimental, todo experimento tem uma variância

e precisa dos números repetíveis. Se os extremos se distanciam da média, a repetição serve para observar se

essa variância diminui. Repetições diminuem a probabilidade de erros, quanto maior o número de repetições

menor a variância residual. A repetição das parcelas promove melhor estimação dos efeitos do tratamento e

possibilita a determinação do erro experimental, e, por conseguinte fornece informações necessárias para

testar a significância das diferenças encontradas entre as médias dos tratamentos. Distribuir os tratamentos

de forma mais aleatória possível, a casualização, diminui a variação do acaso, reprime o favorecimento ou

desfavorecimento de um tratamento, da influência de fatores externos aos que se quer testar. Garante que a

localizaçãodos tratamentos nas unidades experimentais seja aleatória. A casualização permite uma

estimativa do erro experimental por garantir o uso de testes de significância. Em experimentos de campo é

comum se observar que canteiros em terrenos vizinhos tendem a ter produtividades mais semelhantes que

canteiros mais distantes, tendo portando tendências sistemáticas ou variações de características de solo e as

comparações entre os tratamentos devem ser o máximo possível livre de erros sistemáticos. Em outras

palavras o que se busca na casualização bem feita é a independência de todos os erros experimentais, que é

uma das pressuposições da análise de variância para permitir que o pesquisador faça afirmações dos seus

resultados pelos efeitos dos tratamentos e não do acaso. Contudo quando a unidade experimental apresenta-

se com diferenças que podem influenciar os resultados por fatores conhecidos, questões de condução do

experimento como tempo de execução, espaço em estufas para acondicionar todas as parcelas, são

detectados pelo pesquisador, este pode e deve lançar mão de outro princípio experimental que é o controle

local, contudo não é uma obrigatoriedade. Esta ferramenta está baseada em divisões da área (períodos,

condições ambientais, etc) em blocos homogêneos e em cada bloco teremos todos os tratamentos

distribuídos de forma aleatória. Cada bloco pode apresentar diferenças específicas entre si, contudo, o

importante é que cada bloco seja o mais uniforme possível. O exemplo mais generalizado é o de Blocos ao

acaso. Tendo ainda com o controle mais aprofundado o quadrado latino( duas direções perpendiculares)

linha e colunas este recurso é interessante quando se conhece duas fontes de variação e estas se

manifestando de forma perpendicular. Outros níveis de controle local são: Parcela subdividida e blocos

incompletos. Quando se faz o controle local se gasta graus de liberdade do erro experimental, o que não é

interessantes más por outro lado se faz uma redução da variação devida ao erro. Sendo bem planejado, a

redução da variação devido ao erro compensa a diminuição do número de graus de liberdade. Mas o abuso

do controle local, em delineamentos mais complexos além da perda dos graus de liberdade aumentará a

complexidade dos cálculos e, sobretudo, da interpretação dos dados, condições indesejáveis para que o

pesquisador possa ter segurança para fazer suas afirmações.

Ok 1

13. [] (IP:281473826425559 | 00:41:07 | 21:21:13 | 40:06 | 18.371)

Discuta a afirmativa: "Não é recomendável utilizar mais de três fatores distintos"

Ao se avaliar interações de fatores não se deve lançar mão de mais de três fatores ao mesmo tempo devido a

complexidade de se conduzir o experimento, ou seja, pode tomar dimensões que requer uma infra estrutura

as vezes onerosa e o mais importante é que a análise do dados ficam muito complexa. Com este nível de

interações podem ocorrer diferenças significativas entre combinações e não ocorre em outras. Que

geralmente compromete o nível de significância. Gerando tabelas extensas de difíceis interpretações.

Dificilmente conseguiria responder de forma mais enrolada… o que a formação dos tratamentos tem a ver

com complexidade para conduzir o experimento. Por exemplo, um experimento 2x2x2x2 tem 32

tratamentos, enquanto um 2x17 tem 34. No entanto, embora a dificuldade de conduzir estes dois

experimentos seja mais ou menos idêntica, a interpretação do segundo é muito mais simples do que a do

primeiro. Apenas sua última frase deixa transparecer que entendeu mais ou menos o problema 0,25

14. [] (IP:281473826425559 | 00:52:10 | 21:22:34 | 30:24 | 19.052)

Discuta as aplicações da medição repetida em solos.

Algumas medições em experimentos em solos requer que o pesquisador seja cauteloso poque estas situações

muitas vezes podem ser confundidas quanto a independência dos, as vezes os elementos de uma amostra

estão correlacionado com os elementos de outra. Por exemplo existe dependência entre as profundidades (

horizontes ou camadas) em relação as observações atribuídas como individualizadas para cada amostra, em

outras palavras o que acontece no horizonte superficial influencia de alguma forma os acontecimentos nos

horizontes subjacentes. Mesmo que o contrário não seja necessariamente verdade, não podemos afirmar que

existe uma independência entre as observações obtidas nos horizontes de um mesmo perfil. De mesma

forma que cada medição de uma curva de crescimento de uma planta, por exemplo, também é considerada

medição repetida porque o que acontece no segundo mês é consequência do primeiro... Não podendo ser

avaliado como medições independentes da mesma amostra no experimento.

Ok, mas bastante confuso 1

15. [] (IP:281473826425559 | 01:06:14 | 21:23:01 | 16:47 | 21.641)

Justifique a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer

todos os detalhes do trabalho"

Escolher adequadamente o delineamento controla a heterogeneidade do suprte experimental. Isto significa a

possibilidade de optar por Um delineamento inteiramente casualizado ou ter que aplicar algum tipo de

controle local. Como saber se será necessário fazer algum tipo de controle se os detalhes dos trabalhos são

desconhecidos. É virtuoso lembrar que o controle local serve para sanar influências devido ao acaso no

tempo e no espaço, de tal forma que mesmo que o pesquisador saiba todas as condições do local a ser

implantado um ensaio não se admite escolher o delineamento antes de se aprofundar em todos os detalhes do

projeto de pesquisa sobre pena de cometer erros experimentais. Muitas vezes o pesquisador não se preocupa

com os erros experimentais e somente vais notar que os cometeu no momento da análise do experimento.

Ok 1

16. [] (IP:281473826425559 | 01:33:57 | 21:23:25 | 49:28 | 19.256)

Discuta o significado e possíveis implicações do AIC

O critério de informação Akaike é uma medida da relação da qualidade de ajuste de um modelo estatístico.

Ele foi desenvolvido pela Hirotsugo Akaike, sob o nome da “um critério de informação” ( AI ) e foi

publicado a primeira vez em 1974. Ele se baseia no conceito de entropia da informação, na verdade

oferecendo uma medida relativa da perda de informações quando um modelo é usado para descrever a

realidade. Pode se dizer para descrever o equilíbrio entre viés e variância na construção do modelo, ou

falando livremente entre precisão e complexidade do modelo. O método de Akaike é um processo de

minimização que não envolve testes estatísticos. A ideia Básica é selecionarmos um modelo que seja

parcimonioso, ou seja, que esteja bem ajustado e tenha um número reduzido de parâmetros. Como o

logaritmo da função de verossimilhança L(β) cresce com o aumento do número de parâmetros do modelo,

uma proposta razoável seria encontrarmos o modelo com menor valor para a função. A aplicação do AIC

está relaciona do no processo de inclusão e exclusão de uma variável no ajustamento de modelos, em

sistemas computacionais de estatística é uma medida geral da qualidade de ajustamento de modelos.

Excelente 1

17. [] (IP:281473826425559 | 17:43:29 | 21:24:33 | 41:04 | 65.194)

Caso uma interação seja significativa, devo discutir os efeitos principais ligados a ela?

Justifique.

Não devemos avaliar e nem discutir, em ensaios que avaliam interações, e ocorram efeitos de pelo menos

uma interação de fatores que sejam sinergéticos ou antagônicos passa a ser de efeito mútuos na explicação

do fenômeno. Então, efeitos principais revelam reações independentes que não são mais de interesse do

ensaio.

Ok 1

18. [] (IP:281473826425559 | 17:48:08 | 21:25:29 | 37:21 | 33.36)

Discuta vantagens e desvantagens do procedimento stepwise para seleção de modelo de

regressão linear múltipla.

Em modelos de regressões lineares múltiplas geram grade números de combinações, os coeficientes se

correlacionam e ao diminuir ou aumentar o número de veriáveis independentes , os coeficientes de regressão

parcial também se alteram. Maiores números de variáveis possíveis, o coeficiente de determinação não

diminui pela adição de novas variáveis independentes. Uma correlação alta entre as variáveis independentes

pode trazer problemas nos cálculos para estimação da equação. Stepwise é uma mistura de técnicas Começa

Um valor arbitrado que deve ser colhido da bibliografia recente para diminuir o tempo de estabilização ou

ainda se evitar uma coincidência de valores estabilizados em discrepância com o modeo. Opasso de seleção

para frente, ou seja, testa todas e adiciona-se a que sobrepõe ao grupo, com tudo, como desvantagens uma

combinação de variáveis pode sobrepor uma singularidade forte, as probabilidade de F raramente são

adequadas. E como vantagem aproxima-se de todos os modelos.

Em linhas gerais, ok, mas bastante truncado, com forte aparência de cópia em mais de um ponto como

“ omeça Um”, por exemplo 1

19. [] (IP:281473826425559 | 18:37:20 | 21:26:10 | 48:50 | 35.423)

Compare as diferentes possibilidades de previsão de valores de uma variável em função de

outras.

Uma regressão linear simples permite determinar, a partir de estimativas dos parâmetros como uma variável

independente(x) exerce influência sobre outra (Y) e de certa forma mensurável. Por exemplo: o número de

lesões causadas por um fungo (Y) depende da temperatura (x) em que as plantas se encontram. A produção

de uma cultura (Y) depende da intensidade (X) da doença num determinado estádio de crescimento da

planta. Quando duas ou mais variáveis independentes podem estar relacionadas com uma variável

dependente pode-se utilizar a regressão linear múltipla para predizer os valores da variável dependente.

Não tenho ideia da relação desta resposta com a pergunta. 0

20. [] (IP:281473826425559 | 19:10:34 | 21:29:54 | 19:20 | 3.09)

Um experimento vai avaliar o efeito de cinco fontes de carboidratos no desenvolvimento de 100

estirpes rizobianas, em placa de petri (16 cm de diâmetro x 3 cm de altura) com cinco

repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de

variação e graus de liberdade. Use tab para separar as colunas

O experimento será conduzido em blocos ao acaso, em parcelas subdivididas. A escolha desse delineamento

se dá pela impossibilidade de se preparar e conduzir um experimento com 2500 (dois e quinhentas mil)

amostras em DIC garantindo homogeneidade a todos os tratamentos, porque tanto o espaço da estufa como o

tempo de execução não permite a condução em uma só vez, logo as condições de umidade e temperatura

assim como a condução do técnico em uma segunda ou terceira bateria de amostras não ofereceria,

necessariamente as mesmas condições de variabilidade. Nesse ensaio a unidade amostral é a placa de petri,

sendo o crescimento da colônia bacteriana a variável em análise. Os tratamentos em comparação são:

Tratamento Principal (P) = estirpes de risóbio (P¹, P²,P³....P¹°°) e tratamentos secundários (S) = fontes

diferentes de carboidratos ( C1, C2,C3,C4 e C5). Cinco repetições sendo cada repetição representada por

uma placa de petri. Considerando que cada bateria vai ser preparada e incubada em condições não similares,

os tratamentos e as repetições serão distribuídos num delineamento em blocos, em parcelas subdivididas.

Como a câmara de incubação suporta em boas condições até 500 placas de petri e o tempo de encubação é

de duas semanas os blocos serão dispostos em cinco baterias de 500 placas a cada 15 dias.

FV GL GL

Blocos 5-1 4

Tratamento(P) (100-1) 99

Resíduo (a) ( 100-1)((100-1) +(5-1)) 10197

Parcela (100-1) 99

Tratamento (S) 5-1 4

Interação (p)x(s) (100-1)(5-1) 396

Resíduo (b) 500-(100-1)-(5-1)-(100-1)(5-1) 10

Total 500 x 10 -1 4999

Se ligar não dá choque. Antes de discutir qualquer outra coisa, você conseguiu a façanha de ter mais GL no

Resíduo do que no total do experimento…. Ou seja, ou não pensou no que estava fazendo, ou não está

sabendo bem o que é análise de variância. Fora este ponto crucial, não tenho ideia de qual a relação que você

insiste em fazer entre condições do experimento e jogar para subparcela, que é uma decisão que deve ser

tomada por outra razão completamente diferente. Nesta situação não há o menor sentido em parcela

subdividida. 0

21. [] (IP:281473826425559 | 19:47:18 | 21:30:17 | 42:59 | 22.693)

Compare a regressão polinomial com as regressões não-lineares, considerando os pontos de

vista de uso prático, e capacidade de interpretação dos resultados.

As regressões não-linear são de grande importância em experimentações nas ciências agrárias. Fatores que

envolvem aspectos fisiológicos e biológicos tem comportamento em sua maioria não linear de tal forma que

o uso de regressões não-linear aproximaria os ensaios a realidade facilitando a interpretação dos dados. O

corre quando a relação entre a variável Y e a variável X não é linear, podendo se verificar analisando o

gráfico de dispersão X,Y. É possível expressar relações não lineares usando modelos lineares, regressão

polinomial e a relação não linear pode ser identificada pela análise dos resíduos. Ex. Função Yc = a + bX +

cX², neste caso a função é não linear porque inclui a variável X². No entanto, todos os coeficientes (a,b e c)

são lineares. Não aparecem como exponencial e nem multiplicadores uns dos outros. Neste caso podemos

expressar o modelo por uma expressão linear, definindo uma nova variável como o quadrado de X. Basta

incluir uma nova coluna nos dados com o quadrado de X e incluir esta nova variável no modelo. Em outras

palavras algumas regressões lineares suportam transformações e expressam comportamento não linear.

Dificilmente conseguiria responder isto de forma mais confusa ou truncada 0,5

22. [] (IP:281473826425559 | 20:15:17 | 21:30:50 | 15:33 | 28.77)

Qual a importância da interação?

Os modelos estatísticos fornecem dados matemáticos, são números que necessitam de conhecimento

humano para que expressem uso e alimente conceitos, que culminarão em afirmações. Muitas vezes estes

dados exigem conhecimento especializado para que sejam explorados ao máximo trazendo inovações e

quebrem paradigmas. Em outras circunstâncias necessitam de colaborações multidisciplinares, para

interpretações de interações múltiplas que envolvem fenômenos, biológicos, ecológicos, econômicos, socais

e culturais e quebrem barreiras de natureza essencialmente humana, e traga o tão sonhado desenvolvimento

sustentável. Por fim a interpretação dos resultados é a superação do homem a sua criação (modelos, sistemas

e computadores) que diante de uma massa de dados consegue inferir valores qualitativos fornecidos por

dados de valores quantitativos.

Não tenho ideia do que você estava tentando responder, para ser bem honesto. 0

1. [] (IP:281473653997786 | 13:12:54 | 22:52:02 | 39:08 | 12.301)

Relacione fatorial e delineamento experimental

A análise fatorial não constituem um delineamento estatístico e sim um esquema arranjo de desdobramento

de graus de liberdades de tratamentos, podendo ser utilizados em qualquer um dos delineamentos. Nas

análises fatoriais as variáveis são simultaneamente consideradas e avaliadas para explicar as correlações

(inter-relações) entre as variáveis. Nessa análise as variáveis (fatores) são formadas para obter o máximo de

explicação do conjunto de variáveis, não tendo como objetivo identificar uma variável dependente. O

delineamento experimental será a distribuição espacial dos tratamentos na área experimental de acordo com

as condições ambientais sobre o experimento. Os delineamentos podem ser inteiramente casualizado (DIC),

blocos completos (DBC), quadrado latino, quadrado Greco-romano.

Cuméqueé? Está misturando tanto variável e fator que fica quase impossível avaliar se realmente está

entendendo o conceito de fatorial. 0,75

2. [] (IP:281473653997786 | 13:14:07 | 22:52:23 | 38:16 | 10.953)

A escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os

tratamentos?

Sim, a escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os tratamentos,

porque a escolha correta do delineamento experimental vai reduzir o efeito da variação do acaso, reduzindo

o erro experimental, como a variação vai ser devido ao acaso e ao erro experimental, com a redução do

efeito do acaso vai possibilitar uma melhor visualização das diferenças entre os tratamentos, dos efeitos dos

tratamentos nos seus dados. O delineamento experimental correto deve ser utilizado para reduzir o máximo

da soma dos quadrados e o mínimo do grau de liberdade, com uma redução do coeficiente de variação e

aumentando a precisão dos dados analisados.

Ok 1

3. [] (IP:281473653997786 | 13:14:23 | 22:52:38 | 38:15 | 10.731)

Como as repetições reais podem afetar a significância de algum efeito?

Repetição real refere-se ao número de vezes que o mesmo fator aparece no experimento, resultado das

combinações de cada nível do fator com os níveis dos outros fatores utilizados. A repetição real afeta a

significância porque a repetição real terá relação com o cálculo da diferença mínima significativa (Δ) no

teste de Tukey, a raiz quadrado da repetição faz parte do divisor do cálculo do Δ. Sendo assim o Δ quando

comparado com o valor absoluto da estimativa de contraste possibilita avaliar a significância do teste. Se ǀYǀ

≥ Δ, as médias de Y avaliadas diferem e o teste é significativo, caso ǀYǀ < Δ, as médias de Y avaliadas não

diferem o teste não é significativo. A influência da repetição real na significância será observada na

identificação das diferenças entre as médias, com um menor número de repetições e um maior Δ será mais

difícil encontrar a diferença entre cada fator e com um maior número de repetições e menor Δ será mais fácil

encontrar a diferença entre os fatores e suas relações, identificando melhor e podendo separar o efeito do

acaso com o efeito do tratamento.

Na realidade é o número de vezes que cada nível de um fator aparece, mas fora isto, a resposta está ok 1

4. [] (IP:281473653997786 | 13:14:38 | 22:53:38 | 39:00 | 2.072)

Um experimento vai avaliar a tolerância de 100 estirpes de rizóbio a meio de cultura ácido com

três níveis diferentes de cloreto de cálcio em sua composição. Serão usadas 10 repetições.

Indique arranjo e delineamento mais adequados, justifique e determine as fontes de variação e

graus de liberdade. Use tab para separar as colunas

O experimento não tem limitação de material, porém existe limitação para realizar a análise do material.

Sendo assim o delineamento utilizado foi em bloco casualizado. Sendo dividido em 10 blocos, conteúdo

cada bloco todos os tratamentos.

Fator Nível

Estirpes 100

Cloreto de cálcio 3

Repetição 10

Arranjo Fatorial 100x3x10

Tratamento 300

Blocos 10

Fonte de variação G.L

Tratamentos(I-1) 299

Blocos(J-1) 9

Resíduos(I-1)(J-1) 2691

Total(IJ-1) 2999

Eu realmente gostaria de entender qual a dificuldade de encontrar o fatorial no texto e colocar isto na

análise… só para arremetar, o número de repetições não faz parte do fatorial 0,25

5. [] (IP:281473653997786 | 13:14:54 | 22:53:51 | 38:57 | 11.704)

Compare as possíveis técnicas adotadas para seleção do modelo mais adequado para uma

regressão linear múltipla.

Para a seleção do modelo são utilizadas técnicas para identificar qual o modelo que representará melhor a

situação estudada, porém a escolha dessas técnicas pode promover um grande aumento na chance do erro

tipo I. O modelo a ser escolhido deve ser um modelo simples, porém que consiga explicar tanto quanto o

modelo complexo e estimar a variável dependente. Para a escolha do modelo deve-se primeiro especificar

um modelo máximo a ser considerado, esse modelo deve conter todas as variáveis, nesse caso deve ser

analisadas a colinearidade entre as variáveis. Depois deve especificar quais critérios serão utilizados para a

seleção do modelo, maior R², F, T e maior R² corrigido, especificar a estratégia para avaliação dos critérios

escolhidos, na estratégia deve avaliar todas as regressões possíveis, eliminação para trás, eliminação para

frente e stepwise. Após essas etapas devem conduzir a análise e avaliar a confiabilidade do modelo

escolhido.

Só foi citar as técnicas no fim da resposta, e ainda assim foi somente citar, enquanto pedi para comparar…

0,5

6. [] (IP:281473653997786 | 13:16:04 | 22:54:06 | 38:02 | 10.027)

Discuta a afirmativa: "Muitas vezes uma amostragem completamente aleatória não representa

bem a população"

Porque a amostragem aleatória somente afirma que o processo de amostragem foi realizado ao acaso, não

tem relação com a representação da população analisada. Pois caso a amostragem não contenha as

características principais da população (não represente as características principais da população), mesmo

sendo aleatória, essa amostragem aleatória não representará a população, sendo assim com essa amostragem

não poderá ser tiradas conclusões estatísticas da população com base na amostragem aleatória analisada.

Meio circular, mas ok 1

7. [] (IP:281473653997786 | 13:16:22 | 22:55:03 | 38:41 | 7.749)

Um projeto será conduzido para avaliar o efeito do efeito estufa sobre gramineas C3 e C4,

leguminosas e cactáceas considerando diferentes níveis de temperatura e disponibilidade

hídrica. O projeto será conduzido considerando experimentos independentes para cada espécie

vegetal, e todos os experimentos serão conduzidos em câmara de crescimento, que controla

temperatura e atmosfera de forma independente.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

O experimento a ser conduzido será para avaliar em quatros níveis de temperatura (30°C, 35°C, 40°C e

45°C) e quatro níveis de disponibilidade hídrica (0mm/mês, 50mm/mês, 100mm/mês e 150mm/mês) o

desenvolvimento fisiológicos das plantas C3 e C4, para analisar a dependência de processos fotossintéticos

em relação ao ambiente, pois o desenvolvimento da cultura depende das taxas fotossintéticas.

Níveis de temperatura 30°C, 35°C, 40°C e 45°C

Disponibilidade hídrica 0mm/mês, 50mm/mês, 100mm/mês e 150mm/mês

Fator Nível

Temperatura 4

Disponibilidade hídrica 4

Repetição 4

Arranjo Fatorial 4x4x4

Tratamento 200

Blocos 4

Fonte de variação G.L

Tratamentos(I-1) 15

Resíduo(I(J-1) ) 48

Total(IJ-1) 63

A análise não incluiu o desdobramento do fatorial, não indicou nada quanto à exploração dos resultados,

muito menos alguma coisa quanto a tabelas e/ou figuras. 0,25

8. [] (IP:281473653997786 | 13:16:38 | 22:55:12 | 38:34 | 8.992)

Discuta a afirmativa: "Não é recomendável utilizar mais de três fatores distintos"

Quando utilizamos mais de três fatores distintos o número de combinações de tratamentos será grande.

Ocorrendo um número grande de efeitos principais e interações. Com isso ficará difícil a distribuição dos

tratamentos dentro dos delineamentos experimentais para que possa garantir a homogeneidade. A análise

estatística com mais de três fatores vai ser complexa, trabalhosa e a interpretação dos resultados fica difícil

de ser avaliadas devido ao aumento do número de fatores envolvidos no experimento.

Primeiro, isto não tem nada a ver com o delineamento experimental, já que com 16 tratamentos, portanto um

experimento bastante pequeno, já podemos ter quatro fatores. Além disto, o problema não é na análise, mas

sim na interpretação dos resultados. Fora isto, resposta ok 1

9. [] (IP:281473653997786 | 13:16:55 | 22:55:30 | 38:35 | 12.698)

Quais são os principais pontos que devemos avaliar ao estudar uma regressão?

Assumindo que as premissas foram checadas e o comportamento dos dados permite fazer a regressão. O

primeiro ponto a ser avaliar será se a regressão analisada explica o que acontecendo com a amostra. Caso a

regressão não explique os dados não terá importância. Se a regressão explica o que acontece, então pode

analisar o grau de dependência (grau de afinidade ( entre as variáveis com o modelo linear, esse grau de

dependência pode ser avaliado pelo coeficiente de regressão entre duas variáveis A e B. Caso o coeficiente

de regressão seja baixo não deve ser considerada essa regressão, pois o coeficiente de regressão for zero

demonstra que ocorreu ausência total de dependência linear. Caso o coeficiente de regressão seja alto, então

pode continuar a análise, se o coeficiente de regressão for (-1 e 1) indica que ocorre 100% de dependência

das variáveis analisadas. Verificando assim que a regressão é significativa, então caso a regressão explique

bem o comportamento do que acontece na interação das variáveis. Caso seja possível deve-se tentar entender

o que acontece com os coeficientes de regressão.

Ok 1

10. [] (IP:281473653997786 | 13:17:09 | 22:56:11 | 39:02 | 4.187)

Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado,

explicando como é o relacionamento.

Os princípios são repetição, casualização e controle local. Os requisitos para o modelo linear generalizado

são: amostras aleatórias, efeitos aditivos, erros experimentais independentes. O princípio da repetição pode

ser relacionado com o efeito aditivo do MLG, no qual permiti a possibilidade de avaliar a variação do acaso

em cada tratamento, podendo assim separar a variação do acaso nos tratamentos. O princípio da

casualização pode ser relacionado com os erros experimentais independentes, onde com a ocorrência da

casualização possibilita separar o efeito do acaso e do tratamento. O princípio do controle local, quando

ocorrer ambiente heterogêneo, pode ser relacionado com a possibilidade de garantir uma condição

homogênea para todos os tratamentos, permitindo assim uma homogeneidade das variâncias existente entre

os tratamentos, homocedasticidade dos dados.

ok 1

11. [] (IP:281473653997786 | 13:17:21 | 22:56:27 | 39:06 | 1.687)

Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da

agronomia. Justifique.

Um experimento de competição de cultivares de milho foi realizado com a finalidade de avaliar a produção

de grão, por técnicos em amostragem. A área experimental foi dividia em seis partes, cada uma com seis

cultivares. O experimento foi em quadrado latino 6 x 6, sendo que as linhas representam as áreas e as

colunas os técnicos.

Nesta situação o DBC estaria perfeitamente adequado, com cada técnico avaliando uma das diferentes áreas,

que assim controlariam as duas fontes de variação ambiental 0

12. [] (IP:281473653997786 | 13:17:34 | 22:56:45 | 39:11 | 2.564)

Discuta possíveis usos da correlação canônica que ajudariam a melhor entender o

relacionamento entre variáveis.

A análise de correlação canônica é determinada para identificar e quantificar a associação entre dois grupos

de variáveis. A correlação canônica tem como finalidade entender a relação entre dois conjuntos de variáveis

y0 = (y1, y2, ..., yp) e x0 = (x1, x2, ..., xq) medidos na mesma unidade amostral, encontrando um pequeno

número de combinações lineares, para cada um dos conjuntos de variáveis, de modo a maximizar as

correlações possíveis entre os grupos. Essa correlação pode ser utilizada no estudo de dependência

multivariada e com grande número de variáveis.

Não vi uma única citação de possível uso da CC, apenas uma transcrição da definição dela 0,5

13. [] (IP:281473653997786 | 13:17:50 | 22:57:36 | 39:46 | 2.123)

Um experimento vai ser conduzido avaliando o efeito de cinco inoculantes rizobianos em dez

variedades de caupi e quatro solos, em casa de vegetação, com quatro repetições. Indique

arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de

liberdade. Use tab para separar as colunas

O experimento não tem limitação de material, porém existe limitação para realizar a análise do material.

Sendo assim o delineamento utilizado foi em bloco casualizado. Sendo dividido em 4 blocos, conteúdo cada

bloco todos os tratamentos.

Fator Nível

Variedades 10

Solos 4

Inoculantes 5

Repetição 4

Arranjo Fatorial 10x4x5x4

Tratamento 200

Blocos 4

Fonte de variação G.L

Tratamentos(I-1) 199

Blocos(J-1) 3

Resíduos(I-1)(J-1) 597

Total(IJ-1) 799

O problema de sempre, em identificar corretamente os fatores, mas não incluí-los na análise… 0,25

14. [] (IP:281473653997786 | 13:18:05 | 22:57:47 | 39:42 | 10.602)

Discuta diferentes estratégias para seleção do melhor modelo de regressão linear múltipla

A estratégia para seleção do melhor modelo visa avaliar o método escolhido para os critérios estabelecidos.

Nessa etapa deve considerar as variáveis significantes, eliminando as variáveis não significantes para o

modelo. Das estratégias utilizadas destaca-se: (1) testar todas as regressões possíveis, essa estratégia permiti

avaliar o modelo com o maior número de variáveis possíveis, porém vai obter um grande número de

combinações; (2) eliminação para trás, essa estratégia começa avaliando todas as variáveis (p), depois testam

todos os modelos com uma variável a menos (p-1), para cada modelo avaliar será estado o efeito que ocorre

com a retirada da última variável, com isso possibilita avaliar o menor efeito da exclusão da variável; (3)

seleção para frente, nessa estratégia a avaliação começa com a introdução das variáveis no modelo, sendo

realizados testes para determinar o efeito da adição de cada variável no modelo; (4) Stepwise, nessa

estratégia utiliza a seleção para a frente, porém a cada introdução de uma variável vai ocorrer a retirada de

uma variável já presente, devido ao grande número de teste vai ocorrer o aumento da probabilidade de

acontecer o erro de tipo I, no Stepwise as probabilidade de F não são adequadas.

Discutir ≠ citar ou descrever. A descrição está ok, mas em momento algum você discute qualquer coisa. 0,75

15. [] (IP:281473653997786 | 13:18:19 | 22:58:25 | 40:06 | 10.163)

Um experimento foi realizado em casa de vegetação, estudando vinte e cinco inoculantes

diferentes para quatro variedades de feijão, utilizando quatro repetições. Só há 50 potes

disponíveis. Indique arranjo e delineamento mais adequados, justifique e determine as fontes

de variação e graus de liberdade. Use tab para separar as colunas

O delineamento utilizado não foi o bloco casualizado completo porque ocorreu uma limitação de material

para execução do experimento, caso fosse utilizado os 50 potes como um bloco, nesse caso não poderia ser

colocados todos os tratamentos dentro de um bloco. Sendo então utilizado o delineamento em blocos

casualizados incompletos parcialmente balanceados. A escolha do bloco casualizado incompleto

parcialmente balanceado ocorre porque o bloco incompleto balanceado exige que o número de repetições

seja maior que o número de blocos. Porém no experimento o número de repetições foi menor que o número

de blocos, sendo então utilizado o bloco casualizado incompleto parcialmente balanceados.

Fator Nível

Inoculante 25

Variedades 4

Arranjo Fatorial 25 x 4

N° tratamentos (t) = 100

N° blocos (k) = √t= √100=10

Fonte de variação G.L

Repetição(r-1) 3

Tratamento(não ajustado)(k²-1) 99

Blocos (dentro das repetições)(r(k-1)) 36

Erros intrablocos(k-1)(rk-k-1) 261

Tratamento(ajustado)(k²-1) 99

Total(rk2-1) 399

Assim como nos demais que pegaram este caso, acertou na escolha do delineamento, que aliás foi afetada

por engano meu na montagem da situação, mas não descreveu o fatorial na análise de variância. Vai levar

1,0 simplesmente pela escolha correta do delineamento.

16. [] (IP:281473653997786 | 13:18:36 | 22:58:40 | 40:04 | 14.103)

Qual a principal consequência do uso de parcela subdividida?

A redução da precisão estatística em comparação ao fatorial simples, porque vai ocorrer uma redução

(divisão) da variação do acaso para a parcela principal e a subparcela, reduzindo o grau de liberdade e a

soma dos quadrados. Porém pode ocorrer uma melhor precisão operacional durante a implantação e

condução do experimento, reduzindo o custo do experimento, redução da aera experimental, redução do erro

de condução e variação ambiental. Analisando essas características, pode compensar a redução da precisão

estatística (que ocorre na parcela subdividida), de acordo com as condições disponíveis para a implantação

do experimento. Sendo melhor reduzir a precisão estatística e realizar o experimento, do que não realizar o

experimento devido a falta de recurso ou disponibilidade de área, material ou mão de obra para condução do

experimento.

Excelente 1

17. [] (IP:281473653997786 | 13:18:51 | 22:58:53 | 40:02 | 7.888)

A inexistência de interação significativa indica que os fatores são independentes?

A inexistência de interação significativa indica que os fatores são independentes, a partir do momento que

não ocorre interação significativa nenhum dos fatores estão influenciando os outros, como resultados

significativos somente terá o efaito principal de cada fator.

Embora para fins práticos realmente possamos considerar que os fatores são independentes, é sempre bom

lembrar que significância só está ligada com a chance do efeito acontecer devido ao acaso, que neste caso é

pequena. Ou seja, não podemos ter certeza de que os efeitos são independentes realmente, apenas que há

uma chance excessiva da modificação do efeito de um em função do outro acontecer devido ao acaso. 1.

18. [] (IP:281473653997786 | 13:19:03 | 22:59:14 | 40:11 | 12.506)

Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as

consequências desta diferença.

A hipótese científica é a construção de um problema científico, a base científica da pesquisa ou a linha que

será desenvolvida a pesquisa. Pode ser também definida como a descrição do que se espera em uma

determinação situação, a partir de um levantamento de uma teoria, verdadeira ou não. Para a formulação de

uma hipótese é necessário um conjunto observações ou dados, para esta ser verificada ou testada. O

entendimento dos resultados na hipótese científica não será baseado em um modelo matemático. As

hipóteses estatísticas são suposições formuladas feitas a respeito do valor dos parâmetros nas populações,

deve explicitar e sempre comparar parâmetros. A hipótese estatística é realizada para ter conclusões sobre

uma ou mais populações através das estimativas de parâmetros ou pelos testes de hipóteses, ou seja, testar a

nulidades dos dados. Como os dados na análise estatística vêm das estimativas de parâmetros, a decisão

sobre a hipótese científica está associada a uma probabilidade de erro. A hipótese estatística avalia os dados

numéricos obtidos através de modelos matemáticos fixo e contendo restrições. Na hipótese estatística

formula-se a hipótese nula (H0), não existe diferença significativa entre os tratamentos, e a hipótese

alternativa (Ha ou H1), existe diferença significativa entre os tratamentos. A hipótese testada é a hipótese

nula.

Ok 1

19. [] (IP:281473653997786 | 13:19:32 | 22:59:40 | 40:08 | 0.564)

Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para

preveni-la.

A heterocedase pode ser considerada um problema quando ocorrer à presença de variâncias inconstantes

(desiguais), não sendo possível fazer a separação do efeito do tratamento da variação do acaso. A

homocedase, oposto da heterocedase é um dos pré-requisitos estabelecidos pelo modelo linear generalizado,

a variação dos tratamentos seja constante, variáveis aleatórias independentes, e a distribuição dos erros

normal.

Na prática podem ser utilizadas regras para identificar a igualdade da variância, os resultados de uma análise

de variância são válidos quando o maior valor não exceder em três vezes o menor, como também a maior

variância não exceder em quatro vezes a menor. Essas regras são válidas quando os tratamentos são

similares e com mesmo número de repetições, não sendo utilizada em caso de assimetria e curtose positiva.

Existem também testes utilizados para avaliar a igualdade de variâncias, mas nenhum tem ampla

recomendação. Os testes são os de Cochran, Hartley, Bartlett, Levene. O teste de Bartlett é muito utilizado,

porém em caso de curtose negativa pode mascarar diferenças existentes ou em caso de curtose positiva pode

encontrar diferenças onde não existe.

Para diminuir a heterocedase podem ser utilizadas transformações, essas serão aplicadas de acordo com a

forma que os dados foram obtidos. Os dados obtidos pelo processo de contagem recomenda-se extrair a raiz

quadrada para transformar dos dados, diminuindo a heterogeneidade das variâncias dos dados obtidos. Caso

os dados sejam obtidos por proporções será utilizado o arco seno da raiz quadrada da proporção, para

transformações dos dados.

Ok 1

20. [] (IP:281473653997786 | 13:19:49 | 23:05:22 | 45:33 | 289.961)

Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor

nível de um fator".

Não, porque quando a interação é significativa o nível de um fator isoladamente não vai ter importância na

interação. Não podemos dizer que existe um melhor nível de um fator com uma interação significativa,

porque quando ocorre essa interação não vai ser necessário identificar o melhor nível e sim identificar a

interação. Caso não ocorra interação significativa pode-se avaliar o melhor nível de um fator, essa avaliação

poderá ser realizada pelo efeito principal.

Ok 1

21. [] (IP:281473653997786 | 13:20:11 | 23:00:20 | 40:09 | 2.106)

Debata os principais prós e contras das diferentes alternativas para análise de medições

repetidas.

Na medição repetida as alternativas para análise são analisar cada variável separadamente, multivariada,

parcela sub-dividida e modelo misto. Na análise univariada, com variável separada, independente, que exige

uma distribuição normal e variância constante, porém pode ocorrer erro cumulativo e perda de informação

sobre a interação tempo x tratamentos. Na análise multivariada, essa análise não deve ser utilizada quando

os dados estão desbalanceados, reduz o erro tipo I, porque reduz o número de testes, porém podem indicar

diferenças significativas erradas, casos os erros não tenha uma distribuição normal. Na parcela sub-dividida,

após realizar o teste de esfericidade de Mauchly, caso o teste seja significativo, pode-se considerar diferentes

níveis como independentes, porém esse modelo pode ser válido para uma e não outra. No modelo misto, que

considera a existência de co-variância entre as repetições, representando melhor os dados, permiti juntar as

informações das diferentes variáveis, com isso possibilita uma representação dos dados e condição de

dependência entre as variáveis. Pode também ser utilizado em todas as variáveis, permitindo a interação

entre tratamento e tempo/profundidade.

excelente 1

22. [] (IP:281473653997786 | 13:20:22 | 23:00:31 | 40:09 | 2.736)

Discuta possíveis vantagens e desvantagens do uso de regressão na ciência do solo. Detalhe em

particular cuidados que devemos tomar em sua interpretação.

A regressão tem importante papel na ciência do solo devido a grande utilização na interpretação de

resultados experimentais, através da possibilidade de verificar a existência de uma relação entre uma

variável de interesse experimental dependente com uma ou mais variáveis independentes. Essa relação é

expressa por uma função de regressão (função matemática), onde a variável dependente (Y) é uma fração da

variável independente (X). Uma vantagem da regressão é poder estimar dados dentro de um intervalo de

valores, relacionando uma variável com a com a outra em diversos aspectos. Podendo assim, explicar a

ligação entre uma variação da variável dependente pela variação da variável independente, através da

equação matemática e obter informações dentro desse intervalo de valores. Diversos exemplos podem ser

citados nas áreas da ciência do solo, um exemplo é o experimento com doses de adubos, com a regressão

pode interpolar dado e determinar a dose ideal dentro de um intervalo de valores. Uma desvantagem da

regressão é não permitir a análise além do intervalo de dados (extrapolação dos dados). Os dados devem

estar no intervalo de dados estudado, com isso não pode generalizar a situação estudada para a população.

Outra desvantagem é a escolha do modelo adequado, que melhor represente a situação experimental. Deve-

se ter um conhecimento teórico do assunto trabalhado, para tomar as decisões corretas. Porque pode ter uma

situação onde tenha significância estatística, porém não tem importância para a área em estudo.

Ok 1

1. [] (IP:281474055516560 | 10:10:12 | 23:45:11 | 34:59 | 42.895)

Justifique a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer

todos os detalhes do trabalho"

Sim, não possível afirmar qual o melhor delineamento sem conhecer as características do trabalho a serem

executadas, sem conhecer as reais necessidades. Pois, é em função dos objetivos a serem pesquisados, do

local a ser implantado, da disponibilidade de materiais e recursos, da mão de obra, que se define o melhor

delineamento a ser executado.

Ok, mas deveria ter explicado como isto acontece, e não ficado somente nestes termos genéricos até dizer

basta 0,75

2. [] (IP:281474055516560 | 10:11:26 | 23:46:44 | 35:18 | 13.939)

Discuta a relação entre a regressão e um relacionamento causa-efeito.

A regressão é um modelo matemático que estima a relação existente entre uma variável dependente e uma

variável independente, a regressão não explica, não determina a causa-efeito dos parâmetros avaliados.

Ok, mas parece estar pagando por palavra 1

3. [] (IP:281474055516560 | 10:12:09 | 23:47:16 | 35:07 | 5.438)

Discuta a afirmativa: "Toda descrição de uma amostra de dados precisa de pelo menos dois

valores", e justifique sua posição

O número mínimo para descrever uma amostra de dados pode ser dois valores, assim, a partir deste podem-

se obter parâmetros de medidas de tendência central e medidas de variação. Porém este não é número ideal

para descrever com maior precisão a realidade representativa de uma amostra, se esta amostra de fato

corresponde à população ou a uma variação do acaso, sendo importante um número maior de valores,

repetições, para melhor descrever a amostra e analisar a veracidade.

De onde apareceu repetição nesta estória? Se estou calculando medida de variação, é auto-evidente que

tenho mais de um valor, se não seria impossível calcular variação por definição. A resposta está correta, mas

no fim se embananou… 1

4. [] (IP:281474055516560 | 10:12:35 | 23:48:19 | 35:44 | 14.278)

Explique porque podemos considerar que o nível de significância de uma regressão é menos

crítico do que sua importância intrínseca.

Podemos fazer essa consideração devido à maioria das regressões serem significantes, porém não

necessariamente importantes. À exemplo, um experimento bem conduzido e utilizando dados corretos pode

apresentar dados significativos porém não importantes, enquanto que outro experimento pode apresentar

diferenças pequenas significativas e importantes que possuem grande influência na conclusão de uma

pesquisa.

Ok 1

5. [] (IP:281474055516560 | 10:13:08 | 23:49:41 | 36:33 | 5.055)

Discuta diferentes critérios para seleção da melhor regressão linear múltipla.

Os critérios de seleção da melhor regressão linear múltipla consistem no fator que será utilizado para a

escolha do modelo, objetivando avaliar o grau de confiança das estimativas obtidas e selecionar aquele que

permita minimizar a chance de ocorrer o erro tipo I. A escolha do melhor regressão linear múltipla pode ter

como critérios: o coeficiente de correlação (R) - que mede o ajustamento, o grau de afinidade das variáveis

com o modelo linear, indicando a proximidade dos pontos numa reta de regressão, ou seja, quanto maior for

o valor do R, que varia de 0,0 a 1,0, maior será a proximidade dos pontos na reta de regressão; o valor de F -

que mostra a relação entre a variação devida ao resíduo e ao acaso; e o coeficiente de determinação (R²) –

que mostra o quanto as variáveis estão relacionadas entre si, da mesma forma que o coeficiente de

correlação, quanto maior for o valor do R², que também varia de 0,0 a 1,0, melhor será o coeficiente de

determinação.

Ok 1

6. [0.000] (IP:0 | 10:13:19 | --:--:-- | --:-- | ------ )

Quais são os principais critérios a avaliar durante o planejamento de uma amostragem?

Em branco 0

7. [0.000] (IP:0 | 10:14:28 | --:--:-- | --:-- | ------ )

Um projeto será conduzido para avaliar o efeito de tempo de cultivo com mandioca, cana,

milho e pastagem sobre a qualidade do solo nas três macro-regiões pernambucanas, de forma

independente para cada uma. Em cada macro-região serão selecionados quatro municípios

distintos, que serão as repetições, e em cada município serão avaliados cinco tempos de cultivo

e uma área de vegetação nativa. Serão avaliadas características físicas, químicas e

microbiológicas do solo, bem como sua profundidade por tradagem.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

Em branco 0

8.

Discuta as aplicações da medição repetida em solos.

As aplicações da medição repetida em solos permite fazer avaliações de indivíduos que apresentem alguma

dependência (como, por exemplo, avaliações em diferentes profundidades do solo), decompor a

variabilidade total nos dados, excluir as diferenças individuais reduzindo a variância do erro tipo I, e utilizar

um menor número de sujeitos sendo esta uma importante vantagem prática.

Eu não perguntei o que era a medição repetida, mas sim aplicações desta em solos 0,25 apenas porque

sintetizou bem

9. [] (IP:281474055516560 | 10:15:36 | 23:52:35 | 36:59 | 55.244)

Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da

agronomia. Justifique.

Uma situação exemplo em que o quadrado latino pode ser aplicado na agronomia é em uma avaliação do

efeito de cinco diferentes doses de adubo em cinco variedades de milho. Pois que o uso do delineamento em

quadrado latino exige que o número de tratamentos seja igual ao número de repetições e este é utilizado

quando há heterogeneidade cruzada, ou seja, quando há variação nos dois sentidos sendo necessária a

aplicação de dois controles locais, seria justificável o seu uso para o experimento a ser implantado.

O que você descreveu é um fatorial de adubo por variedade, sem a menor relação com quadrado latino 0

10. [] (IP:281474055516560 | 10:16:02 | 23:53:37 | 37:35 | 10.209)

Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.

Os outliers compreendem os pontos discrepantes que promovem uma maior variação em determinado

tratamento, promovendo a heterocedase. Estes podem ocorrer por causas diversas, sendo de importância

avaliar se os dados correspondentes a estes pontos são reais e o tipo de informação obtida. Assim, a

identificação de outliers pode ser realizada através de análises gráficas (histogramas, modelos de

discordância, gráfico de Box, teste de Grubbs, teste de Dixon) ou, simplesmente, através de observações

diretas quando o conjunto de informações é pequeno. Outra forma possível de identificar os outliers pode ser

através do gráfico dos resíduos, onde, sabendo-se que na distribuição normal 95% dos dados ficam entre um

e dois desvios padrões da média, e que 99% dos dados ficam entre mais três ou menos três desvios padrões

da média, será considerado outlier todo o dado que for encontrado além destes desvios, ou seja, outlier serão

todos os dados que se encontram quatro ou mais desvios a partir de zero. Uma das medidas possíveis para

resolver os problemas com outliers e diminuir a falta de aditividade e a heterocedasticidade é realizar

transformações de unidades através de logarítimo, arcoseno, raiz quadrada e potência. Então, avalia-se a

homocedastidade através de alguns testes (Cochran, Hartley, Bartlett, Levene). Se, ainda assim, existir a

presença dos outliers, recomenda-se eliminá-los para tornar os dados homocedásticos e ser possível seguir

com a análise de variância, isto somente após discutir previamente esta tomada de decisão que é definida

pela pesquisa e não pela análise estatística, pois os outliers podem possuir importantes informações acerca

da pesquisa realizada. E caso, ainda assim, não seja possível a homocedase através da eliminação dos

outliers, deve-se utilizar da estatística não-paramétrica.

Excelente 1

11. [] (IP:281474055516560 | 10:17:45 | 23:54:50 | 37:05 | 5.214)

Um experimento vai avaliar dez doses de fósforo em cinco solos diferentes em casa de

vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e

determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

O arranjo indicado é o fatorial 10 x 5 (10 doses de fósforo x 5 solos diferentes) com 4 repetições, pois

permite fazer diferentes combinações entre os diferentes fatores e avaliar a existência de interação, se há

influência de um fator sobre o outro. O delineamento mais adequado é o DBC – Delineamento em Blocos

Casualizados, pois as maiorias das casas de vegetação não possuem homogeneidade quanto à temperatura e

luminosidade, por exemplo. Então posso realizar este experimento em quatro blocos com uma repetição para

cada tratamento em cada bloco, para garantir que todos os tratamentos possuirão as mesmas condições.

F.V G.L

Tratamento t - 1 = 50 - 1 = 49

Bloco r - 1 = 4 - 1 = 3

Resíduo (t -1) (r - 1) = 49 x 3 = 147

Total t r - 1 = (50 x 4) - 1 = 199

Infelizmente como a vasta maioria das respostas identificou o fatorial de um lado e simplesmente

desconsiderou do outro 0,25

12. [] (IP:281474055516560 | 10:18:44 | 23:55:02 | 36:18 | 3.269)

Discuta a afirmativa: "No caso de uma interação, não devemos analisar qualquer efeito

principal."

Sim, pois quando existe interação não faz mais sentido discutir o que ocorreu no efeito principal e quando a

interação é significativa o efeito principal que existe já está envolvido na interação. Assim, não possui

sentido algum discutir o efeito principal de um único fator quando que o efeito de mais fatores são maiores

que este.

Tudo bem que a resposta é realmente que não devemos, mas que tal tentar explicar porque sem utilizar a

definição circular de que não devemos porque não devemos, que foi essencialmente a resposta? 0,25

13. [0.000] (IP:0 | 10:19:09 | --:--:-- | --:-- | ------ )

Discuta possíveis usos da correlação canônica que ajudariam a melhor entender o

relacionamento entre variáveis.

Em branco 0

14. [] (IP:281474055516560 | 10:19:31 | 23:56:10 | 36:39 | 3.154)

Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos,

em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique

e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

O arranjo indicado é o fatorial 10 x 5 (10 cultivares de soja x 5 inoculantes rizobianos) com 4 repetições,

pois permite fazer diferentes combinações entre os diferentes fatores e avaliar a existência de interação, se

há influência de um fator sobre o outro. Como a avaliação será realizada em campo e, sabendo-se que, este

não possui homogeneidade, o delineamento mais adequado também é o DBC – Delineamento em Blocos

Casualizados. Assim, é possível realizar este experimento em quatro blocos com uma repetição para cada

tratamento em cada bloco, garantindo a todos os tratamentos às mesmas condições.

F.V G.L

Tratamento t - 1 = 50 - 1 = 49

Bloco r - 1 = 4 - 1 = 3

Resíduo (t -1) (r - 1) = 49 x 3 = 147

Total t r - 1 = (50 x 4) - 1 = 199

Novamente identificou corretamente o fatorial, e simplesmente desconsiderou isto na análise 0,25

15. [] (IP:281474055516560 | 10:20:02 | 23:56:29 | 36:27 | 4.476)

Podemos esperar o mesmo grau de eficiência dos diferentes tipos de fatorial?

Não, no fatorial simples é possível quantificar a variação do acaso entre todos os fatores, ou seja, há um

ganho estatístico maior quando comparado às parcelas subdivididas, pois que nestes temos duas fontes de

variação do acaso, nas parcelas principais e nas subparcelas.

Na parcela subdividida também é possível quantificar a variação do acaso, mas a parte final é que responde

bem a questão 1

16. [] (IP:281474055516560 | 10:20:24 | 23:56:57 | 36:33 | 3.126)

Todo fatorial com o mesmo número de tratamentos tem o mesmo grau de complexidade?

Não, pois que o tratamento é uma combinação entre fatores com diferentes níveis a complexidade se dará

em função destes e não no número total de tratamentos.

Novamente, resposta correta, mas razão impossível de entender. A complexidade de interpretação acontece

em função do número de fatores envolvidos no fatorial, não em função do número de níveis de cada fator

0,75

17. [0.000] (IP:0 | 10:20:44 | --:--:-- | --:-- | ------ )

Diferencie repetição real, repetição experimental, e réplica.

Em branco 0

18. [] (IP:281474055516560 | 10:21:06 | 23:57:39 | 36:33 | 10.318)

A inexistência de interação significativa indica que os fatores são independentes?

Não, a ausência de interação significativa indica que o efeito principal é maior que o efeito secundário, pois

sempre existem ambos, o efeito principal e a interação, porém essa interação é tão pequena que

consideramos que ela não existe e consequentemente os fatores são independentes.

Ok 1

19. ------ )

Qual a importância da interação?

A interação tem sua importância para avaliação da relação existente entre os fatores de um experimento,

como um fator afeta o outro. Assim quando uma interação existe a avaliação dos efeitos principais não

possuem mais interesse, pois que o efeito da interação é maior e consequentemente mais significativo.

Ok 1

20. [0.000] (IP:0 | 10:22:07 | --:--:-- | --:-- | ------ )

Considerando que tenha encontrado problemas na avaliação das premissas do Modelo Linear

Generalizado, discuta as principais técnicas usadas para resolver estes problemas.

Em branco 0

21. [0.000] (IP:0 | 10:22:27 | --:--:-- | --:-- | ------ )

Compare as possíveis técnicas adotadas para seleção do modelo mais adequado para uma

regressão linear múltipla.

Em branco 0

22. [0.000] (IP:0 | 10:23:28 | --:--:-- | --:-- | ------ )

Um experimento vai ser conduzido no campo avaliando 100 novos clones de palma forrageira

com adubação orgânica, mineral ou uma combinação, com duas repetições.Indique arranjo e

delineamento mais adequados, justifique e determine as fontes de variação e graus de

liberdade. Use tab para separar as colunas

Em branco 0

1. [] (IP:281473816234880 | 00:02:07 | 23:12:20 | 10:13 | 3.893)

Quais são os principais critérios para avaliar a qualidade de uma amostragem?

A amostragem é o procedimento para selecionar amostras representativas da população, sendo que em

alguns casos a experiência do pesquisador é levado em consideração, porém para representar bem uma

população a amostra deve ter quantidade e qualidade. A qualidade se refere a como e onde selecionar a

amostra e como selecionar, sendo garantida pelo pesquisador, onde delimitará os aspectos gerais de

representação da população, para isso pode-se utilizar método aleatório (sorteio) ou o representativo para

selecionar os elementos da amostra, variando o tipo de amostragem .

Mas em alguns casos podemos ter uma boa quantidade sem qualidade, tendo conclusões errôneas, como

também boa qualidade sem quantidade, sem representatividade correta, o ideal é boa qualidade e boa

quantidade.

Para evitar tais problemas deve-se seguir um padrão:

Não se deve coletar dados sem que antes se tenha definido claramente o problema;

Os sistemas de medição (instrumento, operadores, método, meio) que serão utilizados devem ser avaliados e

ter capacidade de medição suficiente;

Devem ser utlizados métodos adequados para coleta de dados de acordo com o problema estudado.

Ok 1

2. [] (IP:281473816234880 | 00:02:43 | 23:12:51 | 10:08 | 29.862)

Explique porque podemos considerar que o nível de significância de uma regressão é menos

crítico do que sua importância intrínseca.

De modo geral, a significância é apenas um indicativo da probabilidade de erro na afirmação de um

acontecimento, sendo esta, na análise de regressão, muito freqüente de acontecer mesmo com o mínimo de

relação biológica entre as variáveis podendo ocorrer por mera coincidência. Desta forma, a significância não

é um indicador de importância científica, que é a relação entre variáveis, ou seja, se esta ligação é

importante o suficiente para discutir, por isso é importante analisar o coeficiente de correlação. Na

regressão, se a relação entre duas variáveis é importante, normalmente, também é significativo, porém a

recíproca pode não ocorrer. Em modelos lineares a importância é principalmente definida por: proporção da

variância atribuída ao modelo, o tamanho de um ou mais coeficientes de correlação, intervalos de confiança

de interesse. Assim, em modelos de regressão torna-se mais relevante a avaliação da importância científica

do que a significância, uma vez que essa é um indicativo de quanto da variação total está sendo explicado

pelo modelo, ou seja, pelo coeficiente de determinação da regressão. Duas regressões podem apresentar o

mesmo nível de significância sem necessariamente possuírem a mesma importância cientifica.

Excelente 1

3. [] (IP:281473816234880 | 00:03:05 | 23:13:55 | 10:50 | 26.181)

Porque a heterocedase pode ser considerada um problema sério, e o que devemos fazer para

preveni-la.

As conseqüências da heterocedasticidade são a curtose positiva (distribuição dos dados não se assemelha a

média) e a assimetria ( na curva os 2 lados não são iguais, devido que o desvio-padrão do conjunto de dados

não aumenta quando a média aumenta), causando anormalidade .

A heterocedase por causa da ausência de independência torna o nível de significância maior do que o

previsto, ou seja, a chance de ocorrer erro do tipo I (rejeitar a hipótese nula (Ho), quando ela é verdadeira,

causando assim grandes prejuízos) por isso é um problema sério.

A prevenção da heterocedase vai desde a detecção de outliers e identificando o por que da sua ocorrência,

calculando resíduo padronizado (RP=desvio/(raizQMR) caso exista, eliminar para torná-lo” homocedástico,

elimina-se esse ponto e refaz a analise novamente para ver o comportamento. Caso não tenha dependência

dos resíduos, se faz transformação dos dados mudança de escala, onde os dados sejam independentes, sendo

que depende do que está avaliando (eliminar ou transformar). A correção dada por meio de Testes de

Homocedase (Cochran, Hartley, Bartlett e Levene), que a analisa a variância dos resíduos dos tratamentos,

onde as variâncias precisam ser homogêneas para que o teste F seja não significativo e assim indicar a

homocedase.

Resposta correta, exceto quanto ao primeiro parágrafo. Curtose positiva e assimetria estão ligadas com a

importância da falta de normalidade dos resíduos, não com heterocedase, pelo que me consta 1

4. [] (IP:281473816234880 | 00:03:26 | 23:14:00 | 10:34 | 4.907)

Discuta diferentes critérios para seleção da melhor regressão linear múltipla.

A priori para selecionar a melhor regressão linear múltipla é selecionar usando o teste de hipótese as

variáveis que serão estudadas no modelo, sabendo-se do maior relacionamento da variável independente

com o mínimo de variáveis independentes. Para os modelos aninhados, o padrão para selecionar o melhor,

sendo aquele que envolva poucos parâmetros, mas que expliquem de maneira satisfatória a real situação

avaliada. Sendo que os critérios estam relacionados com as escolhas das variáveis ou critérios estatísticos de

avaliação bem estabelecidos e funcionais, como o coeficiente de regressão (R), o coeficiente de

determinação (R²), coeficiente de determinação corrigido (R²c), t, Fs e nível de significância. Outra

possibilidade é utilizar critérios baseados no máximo da função de verossimilhança, conhecidos como AIC

(índice que leva em conta a qualidade e a quantidade de parâmetros utilizados em uma regressão), quanto

menor o AIC, melhor o modelo.

Ok, mas somente pelo finzinho da resposta 1

5. [] (IP:281473816234880 | 00:04:11 | 23:14:29 | 10:18 | 22.152)

Como o número de níveis de um fator pode afetar a precisão dos demais fatores de um

experimento?

As combinações entre os níveis dos fatores implicam diretamente no aumento do número de tratamentos,

onde nos deparamos com alguns problema como instalar e distribuir os tratamentos na área correspondente

para a experimentação. Pois os delineamentos tem suas exigências para ter precisão nas avaliações, DIC, a

exigência para obter uma boa precisão nas avaliações é a homogeneidade do ambiente, no DBC a exigência

é que todos tratamentos estejam contidos no bloco para obtenção de precisão nas avaliações.

Bem, minha ideia era falar sobre repetições reais, mas sua resposta também está correta, já que o aumento

do tamanho do experimento, por conta do aumento do número de tratamentos realmente pode afetar a

precisão geral do experimento, através de aumento na variabilidade ambiental. Boa saída. 1

6. [] (IP:281473816234880 | 00:04:35 | 23:14:57 | 10:22 | 22.355)

O fato de termos mais de um valor para uma dada variável, no mesmo tratamento, indica que

o princípio da repetição está sendo obedecido? Discuta.

Sim, pois a repetição corresponde ao número de vezes em que o mesmo tratamento se repete, e não

diferentes valores dentro do tratamento, sendo que, com o aumento desse parâmetro há a diminuição da

chance de erro do experimento. Este princípio é utilizado quando se sabe de variações do ambiente, e tenta-

se minimizar esse efeito pelo aumento do número de repetições.

Não, porque podem ser réplicas, como no uso de sub-amostras saídas de uma mesma amostra durante a

determinação de teores de nutrientes no laboratório 0

7. [] (IP:281473816234880 | 00:04:53 | 23:15:20 | 10:27 | 15.29)

Compare os efeitos principal e secundário de uma interação, do ponto de vista das informações

que podem ser obtidas a partir deles.

Para o efeito principal, o fator é estudado de forma isolada isso independente do efeito dos demais fatores, e

no efeito secundário corresponde às interações que ocorrem entre os fatores onde são estudados de forma

conjunta. Quando a interação é significativa, os efeito dos fatores isolados não são de grande interresse para

o entendimento do fenômeno, uma vez que a interação fornece uma representação mais confiável. Para a

interação dupla se faz uso de testes de variância, ocasionando o aumentando da precisão e a real estimação

dos efeitos das interações entre os fatores. Mas caso a interação seja tripla e quádrupla aumenta o grau de

dificuldade, sendo que a discussão dos resultados em muitos casos não é bem aceitável, pois o real objetivo

é a compreensão do processo biológico.

Ok 1

8. [] (IP:281473816234880 | 00:05:57 | 23:16:03 | 10:06 | 36.492)

A escolha do delineamento pode afetar a capacidade de encontrar diferenças entre os

tratamentos?

Partindo do exemplo em que delineamento em blocos casualizados é escolhido de forma errada, haverá um

consumo excessivo de GL sem uma correspondente perda de soma de quadrados, alterando assim o F.

Quando o GL do resíduo é baixo, são precisos maiores valores de F para que haja diferença significativa

entre os tratamentos, e uma diferença que seria significativa em um DIC, pode não ser em um DBC. Tendo

essa preocupação a escolha do delineamento mais adequado implicará na correta determinação dos efeitos

do tratamento e acaso o que acarreta uma maior precisão nos resultados obtidos.

Ok 1

9. [] (IP:281473816234880 | 00:07:00 | 23:17:33 | 10:33 | 5.781)

Um experimento vai avaliar o efeito de cinco fontes de carboidratos no desenvolvimento de 100

estirpes rizobianas, em placa de petri (16 cm de diâmetro x 3 cm de altura) com cinco

repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de

variação e graus de liberdade. Use tab para separar as colunas

100 (estirpes rizobianas) X5 (fontes de carboidratos )X5 (repetições)

Arranjo Fatorial

DBC (DELINEAMENTO EM BLOCOS CASUALIZADOS)

F.V. G.L.

ESTIRPES(E) 99

CARBOIDRATOS(C) 4

E X C 396

TRATAMENTOS 499

BLOCOS 4

RESÍDUO 1996

TOTAL 2499

Ao considerar que somente uma pessoa irá realizar o trabalho, sendo necessário preparar um total de 2500

placas e que cada placa necessita de um tempo para preparo, é preciso dividir o experimento em blocos,

tendo como causa de variação o operador leva um tempo para preparar a primeira placa a ser preparada e a

última. A ordem de preparação das placas deve ser feita por meio de sorteio, reduzindo assim a variação do

acaso.Arranjo Fatorial pois não faz a comparação de tratamento com tratamento, todo mundo com todo

mundo, porque não se está interessado no tratamento, mais sim com o comportamento de um fator em afetar

em outro fator, se tá afetando e, de que maneira. E sim a interação entre os fatores.

Aleluia, salvou-se uma alma…. Eu já estava tão desesperado por conta destes erros que vou dar 1,5 ponto…

10. [] (IP:281473816234880 | 00:08:20 | 23:17:51 | 09:31 | 17.18)

Quais são os principais pontos que devemos avaliar ao estudar uma regressão?

Ao avaliar a importância dos dados e sua representação para explicação da regressão, dando ênfase somente

na significância dos dados. A mesma não possibilita representar o que acontece nos diferentes fatores

biológicos e sim determinar se os valores dos dados acontecem devido ao acaso. Segundo ponto que deve

ser avaliado é o tamanho dos coeficientes de correlação, os valores dos coeficientes podem ser altos, porém

podem não interpretar os fenômenos biológicos que ocorrem durante o estudo. Terceiro ponto que também

deve ser avaliado é o intervalo de confiança de interesse no estudo, esse intervalo de confiança deve

determinar com base na média dos dados das amostras, a estimativa da média da população.

Ok 1

11. [] (IP:281473816234880 | 00:08:45 | 23:18:36 | 09:51 | 38.238)

Qual a principal contribuição que podemos esperar da análise de componentes principais?

A análise de componentes principais consiste em transformar um conjunto de variáveis originais em outro

conjunto de variáveis de mesma dimensão. A análise é associada à idéia de redução de massa de dados, com

menor perda possível da informação. Contudo sua importância é uma visão conjunta de todas ou quase todas

as técnicas da estatística multivariada para resolver a maioria dos problema práticos.

Ok 1

12. 816234880 | 00:09:00 | 23:19:09 | 10:09 | 3.816)

Qual a importância da interação?

experimentação onde está avaliando mais de um fator, com tendência de dependência entre dois fatores, ou

melhor um fator pode modificar o comportamento do outro. Sendo na análise há a existência de uma

interação é significativa, não é necessário a interpretação dos efeitos principais, uma vez que a interação tem

mais argumentos para explicar o fenômeno. A grande importância da interação é devido que sua maior

precisão na interpretação e possuir uma maior proximidade da realidade onde leva em consideração todas as

combinações possíveis entre os fatores atuantes no experimento.

Parece ter cortado um pedaço quando passou a resposta para o sistema, mas não chegou a dificultar o

entendimento da resposta 1

13. [] (IP:281473816234880 | 00:09:13 | 23:20:43 | 11:30 | 9.749)

Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado,

explicando como é o relacionamento.

O Modelo Linear Generalizado está relacionado com seus requisitos, pois, os dados tem que obedecer os

mesmos para que tenha uma representação correta dos efeitos dos tratamentos. A aditividade, para permite a

separação dos efeitos, pois se não forem aditivos, não há a possibilidade de calcular cada efeito

separadamente. O conjunto de dados tem que ser devido ao acaso, aleatórios, pois se não forem, pode ser

que venham a satisfazer o modelo, tornando-os irreais, não mostrando realmente acontece nos tratamentos.

Para o MLG, é necessário que os erros experimentais sejam independentes, independência esta obtida

através da casualização e seus efeitos sejam devido ao acaso, onde a não adequação acarretará problemas na

analise de variância.

Quanto a distribuição normal da variação do acaso sejam semelhantes de tal forma que uma represente todo

o experimento, sendo que a média seja igual a zero, permitindo assim calcular os diferentes efeitos. As

variâncias devem ser constantes, e a homocedase também é requerida. Para que isso seja válido, a analise da

maior variância não devem exercer três vezes a menor variância.

Confuso, mas ok 1

14. [] (IP:281473816234880 | 00:09:25 | 23:57:13 | 47:48 | 47.757)

Será conduzido um projeto para avaliar a reciclagem de nutrientes em pastagens, caatinga e

mata atlântica, ao longo do tempo. Para este fim será realizada a coleta da produção natural de

serrapilheira, seu conteúdo de nutrientes e sua decomposição. O projeto também deverá

avaliar a biomassa presente em cada ecossistema, bem como características microbiológicas,

químicas e de física do solo. Deverão existir repetições reais em cada ambiente.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

E alguns autores conceituam que um modelo com ambos, efeitos fixos e aleatórios é chamado de modelo de

efeitos mistos, ou apenas modelo misto, porque inclui vários efeitos representando diferentes fontes de

variação aleatória.

Misturou alhos com bugalhos… a resposta simplesmente não tem o mínimo de relação com a pergunta, além

de ter toda a cara de ter sido copiada diretamente de algum canto 0

15.

Diferencie interação e efeito principal.

Efeito principal é o efeito de um fator sem levar em consideração os demais, expressa o que acontece com os

outros fatores.O mesmo é medido a partir do total dos fatores considerados, visto seus níveis e repetições. Já

a interação que também pode ser chamada de efeito secundário, leva em consideração como um fator afeta a

resposta do outro fator, considerando todas as combinações possíveis entre os fatores, as interações são

medidas pela combinação de fatores em relação ao conjunto geral de fatores.A mesma é a resposta de uma

ação conjunta entre dois ou mais fatores, e que na sua presença os efeitos principais isolados não são mais

tão importantes, porque as interações serão mais consistentes, e representam melhor a realidade.

Ok 1

16. [] (IP:281473816234880 | 00:09:49 | 23:30:59 | 21:10 | 6.08)

Considere e discuta a seguinte afirmativa: "Nem sempre o modelo com o melhor R² não-

ajustado é o mais adequado".

O uso do R2 não-ajustado não é adequado, pois quanto maior o número de variáveis utilizadas, maior é o

R2, isto devido a conseqüência destas variáveis adicionadas podem não estar explicando nada, que mesmo

assim estariam aumentando automaticamente o R2.

O R2 ajustado serve para corrigir o efeito do aumento do R2. A se utilizar o R2 ajustado é adicionado mais

variáveis na equação, onde estas variáveis adicionadas ajudam a explicar melhor a situação, portanto, o ideal

é utilizar o modelo mais simples e que explique tão bem quanto o modelo mais complexo.

Ok 1

17. [] (IP:281473816234880 | 00:10:05 | 23:31:21 | 21:16 | 5.822)

Debata os principais prós e contras das diferentes alternativas para análise de medições

repetidas.

Na análise univariada nos permite avaliar cada variável separadamente, podendo ser medida para uma ou

mais amostras independentes. Uma desvantagem desta análise é não levar em conta as correlações entre as

variáveis na mesmas unidades experimentais acarretando o erro acumulativo, causando assim um problema

(conclusões divergentes e errôneas), quando as análises realizadas para cada variável, onde não tem como

comparar estatisticamente ou melhor não tem como afirmar o grau de certeza.

E para resolver tal problema adota-se análises alternativas: (análise multivariada, parcela sub-dividida e

modelo misto “fatorial especial”.

Na analise multivariada, os dados são correspondentes ao conjunto de todas variáveis, sendo sua grande

vantagem, pois se tem um resultado único da análise, onde nos assegura a maior generalização dos

resultados, diminuindo ou inexistindo o erro tipo I acumulativo, isso quando comparada com a univariada.

Refletindo com que o número, da diferenças significativas sejam menores quando se utiliza o modelo

anterior. Sendo sua desvantagem, uma interpretação bem diferente do comum e bem mais rigorosa, pois se

baseia em um nível de significância conjunta.

Para se verificar a possibilidade de uso de parcela sub-dividida onde se limita, em que não posso assumir

que existe dependência, para isso é feito o teste de esfericidade de Mauchly, podendo ser feita para cada

variável (apenas uma ou outra), no qual verifica se uma população apresenta variâncias iguais e correlações

nulas (independência das amostras em uma mesma parcela ao longo do tempo.). As amostras quando

consideradas independentes entre si, temos a opção de considerar como parcela sub-dividida no tempo.

Quando essa condição não é satisfeita pode-se fazer algumas transformações e correções dentro de alguns

limites propostos pelo teste, caso não seja satisfeita usá-se um modelo ideal ou modelo misto . A grande

vantagem é o conceito e o procedimento da análise que é “simples”, a desvantagem é o problema da análise

propriamente dita, que não é válida, e tem alta chance de ser rejeitada por possíveis problemas.

O modelo misto “fatorial” as variáveis estão no mesmo nível, onde não assume a independência mas

reconhecemos uma dependência explicitamente no modelo, sendo a mesma parecida com fatorial mas com

características especiais. Sendo sua interpretação quase igual a univariada, mas sem vê o C.V., pois ao

assumir a dependência fica igual a independência exigida, tendo a vantagem de ajustar modelos que

reduzem o número de parâmetros, podendo ser usada em todas as variáveis; menos exigente; permite

agrupar as informações das diferentes variáveis;simples de entender pois utiliza a mesma linguagem de

discussão da univariada que na multivariada não ocorre, e não tem C.V.

Ok 1

18. [] (IP:281473816234880 | 00:10:19 | 23:33:18 | 22:59 | 5.641)

Cinco adubos verdes serão avaliados quanto a seus efeitos na população de nematóides em

cana de açúcar queimada ou não, em trabalho de campo, com cinco repetições. Indique

arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de

liberdade. Use tab para separar as colunas

Arranjo Fatorial

5 (Cinco adubos verdes) X 2(queimada ou não )X 5 (repetições)

F.V. G.L.

ADUBO (A) 4

COLHEITA (B) 1

INTERAÇÃO (A X B) 4

TRATAMENTO 9

BLOCO 4

RESÍDUO 36

TOTAL 49

O delineamento mais indicado para a condução desse experimento é o blocos casualizado, devido às

condições de campo apresentar uma grande heterogeneidade, nas variações de temperatura, luminosidade,

vento, umidade, e outros

Correto, mas só vai ganhar 1 mesmo que não é festa

19. [] (IP:281473816234880 | 00:10:32 | 23:33:32 | 23:00 | 12.195)

Qual a implicação do número de fatores e níveis presentes em um delineamento em relação à

precisão da avaliação de cada fator?

As combinações entre os níveis dos fatores implicam diretamente no aumento do número de tratamentos,

onde nos deparamos com alguns problema como instalar e distribuir os tratamentos na área correspondente

para a experimentação. Pois os delineamentos tem suas exigências para ter precisão nas avaliações, DIC, a

exigência para obter uma boa precisão nas avaliações é a homogeneidade do ambiente, no DBC a exigência

é que todos tratamentos estejam contidos no bloco para obtenção de precisão nas avaliações.

Este aspecto é o mesmo que você seguiu na sua resposta a outra pergunta semelhante, mas neste caso ao não

incluir aspectos separados para número de níveis e fatores não vê os efeitos diferentes do número de níveis e

de fatores 0,5

20. [] (IP:281473816234880 | 00:10:48 | 23:33:59 | 23:11 | 14.129)

Diferencie fatorial de parcela subdividida, em termos de uso.

No fatorial, estudam-se dois ou mais fatores e as possíveis interações entre estes ou o uso de todas as

combinações possíveis de como mais de um fator atua concomitantemente nos tratamentos. A principal

diferença é o uso de parcelas diferentes para cada fator. Parcela subdividida é um tipo especial de fatorial em

que um fator fica dentro do outro, ou seja, no fatorial todos estão nos níveis correspondentes, no mesmo

nível hierárquico, já na parcela subdividida há dois ou mais níveis, onde usa-se fatores com características

distintas. As parcelas têm diferentes tamanhos para diferentes fatores, fator principal ocupa parcelas maiores

e outro fator ocupa parcelas menores, que ficam dentro da parcela principal que são as subparcelas. Em

função disto, ficamos com duas ou mais variações do acaso, um ligada com cada tamanho de parcela.

Ok 1

21. [] (IP:281473816234880 | 00:11:02 | 23:37:24 | 26:22 | 5.075)

Um experimento vai ser conduzido no campo avaliando 100 novos clones de palma forrageira

com adubação orgânica, mineral ou uma combinação, com duas repetições.Indique arranjo e

delineamento mais adequados, justifique e determine as fontes de variação e graus de

liberdade. Use tab para separar as colunas

Utilizou-se delineamento experimental em blocos casualizados, com os tratamentos arranjados em parcelas

sub-divididas, com 2 repetições. Os tratamentos principais consistiram de 100 clones diferentes. E dentro

dos tratamentos principais foram sorteados os tratamentos secundários, os quais foram constituídos de 3

opções de adubação para palma forrageira (orgânica, mineral e combinação).

Na parcela subdividida, há uma parcela principal que recebe o maior tratamento e dentro desta parcela

principal, há uma subparcela, que requer menor área amostral que receberá um dos fatores estudados.

F.V. G.L.

BLOCO 1

CLONE (C) 99

RESÍDUO a 99

PARCELAS 199

ADUBOS (A) 2

INTERAÇÃO (C X A) 198

RESÍDUO b 200

TOTAL 599

Correto, mas novamente não vai ganhar o bônus 1.

22. [] (IP:281473816234880 | 00:11:15 | 23:56:25 | 45:10 | 1119.379)

Quais são as principais diferenças entre os diferentes delineamentos experimentais?

A grosso modo a diferença está no fato dos delineamentos utilizarem ou não os três princípios (repetição,

casualização e controle local. Delineamento em blocos casualizados e/ou blocos completos e similares ,

quadrado latino e outros delineamentos da família (blocos incompletos com tratamentos comuns e quadrado

Greco-romano), utilizam todos princípio, já no Delineamento inteiramente casualizado não usa o controle

local, por ser um método mais simples, utiliza apenas os princípios da repetição e casualização, sendo então

diferença para eles.

No DBC o controle local é representado pelos blocos, onde cada um inclui todos os tratamentos, sendo

usado em ambientes que se caracterizam heterogêneos.

Para utilização do DIC, o ambiente deve ser homogêneo ou com a ausência de informações sobre a

heterogeneidade, onde sabemos que qualquer variação que possa ocorrer é devido a variação do acaso, e se

caso fosse constatado heterogêneo não teria como fazer o controle, usando o mesmo.

No quadrado latino, o controle local é mais eficiente que o delineamento em blocos casualizados, pois

controla a heterogeneidade do ambiente tanto na horizontal como na vertical, ou seja, os blocos são

organizados de duas maneiras diferentes, uns constituindo as linhas, outros as colunas.

Ok 1

1. ] (IP:281473653997786 | 00:38:13 | 23:17:56 | 39:43 | 15.44)

Discuta a importância da repetição real, e suas consequências na avaliação dos fatores.

Número de repetição real significa quantas vezes um determinado fator que compõe seu tratamento vai

aparecer, ou seja, cada efeito principal aparece no experimento. A importância deste conceito na análise

fatorial é que nos possibilita estudar os efeitos principais dos fatores caso não haja interação entre eles, pois

para isso haverá um maior número de repetições para cada fator e com isso é possível saber melhor ou

enxergar melhor a diferença entre cada fator e a relação entre estes, além de ser mais fácil de separar o efeito

do acaso do efeito do tratamento. Embora o experimento seja formado com um determinado número de

repetições, na realidade o mesmo é composto por repetições de cada fator que formou e seu tratamento.

Excelente 1

2. [] (IP:281473653997786 | 00:38:39 | 23:19:02 | 40:23 | 62.892)

Como o número de níveis de um fator pode afetar a precisão dos demais fatores de um

experimento?

As combinações entre os níveis dos fatores implicam diretamente no aumento do número de tratamentos,

onde nos deparamos com alguns problema como instalar e distribuir os tratamentos na área correspondente

para a experimentação. Pois os delineamentos tem suas exigências para ter precisão nas avaliações, DIC, a

exigência para obter uma boa precisão nas avaliações é a homogeneidade do ambiente, no DBC a exigência

é que todos tratamentos estejam contidos no bloco para obtenção de precisão nas avaliações).

Esta resposta está praticamente idêntica à última resposta a esta mesma questão, o que é surpreendente,

considerando que as perguntas deveriam ser respondidas individualmente. No entanto, como os dois podem

ter se baseado na mesma fonte vou admitir a honestidade de ambos. Sugiro apenas que realmente tomem

muito cuidado com formulações de respostas. 1

3. [] (IP:281473653997786 | 00:38:57 | 23:20:30 | 41:33 | 67.159)

Caso uma interação seja significativa, devo discutir os efeitos principais ligados a ela?

Justifique.

Se a interação for significativa não devemos discutir os efeitos principais ligados a ela porque, uma

interação significativa demonstra que os fatores que a compõem tem efeito dependente entre si na

determinação de uma característica dos resultados de um experimento. Um fator estará influenciando o

efeito do outro fator então há mais sentido em discutir a interação, pois a mesma explica muito mais o que

eu estou estudando e dela é possível tirar muito mais informações do que estudar os efeitos principais

isoladamente. Sendo assim não há sentido de analise estatística de um efeito principal isoladamente, que

participa de uma interação significativa.

Ok 1

[] (IP:281473653997786 | 00:39:08 | 23:27:17 | 48:09 | 3.461)

Um experimento vai ser conduzido avaliando o efeito de três manejos de irrigação, com cinco níveis de

estresse e quatro solos distintos no sorgo, em casa de vegetação, com quatro repetições. Indique arranjo e

delineamento mais adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para

separar as colunas

Tipo de delineamento: Blocos ao acaso

Arranjo: fatorial com esquema (4x5x3) com 4 repetições formando ao todo 240 unidades experimentais.

Justificativa: o uso do blocos casualizado é devido ao grande numero de fatores e com isso precisamos de

um maior controle local. E o uso de arranjo fatorial é porque se tem o estudo de vários grupos

simultaneamente que é o estudo do efeito de três manejos, com cinco níveis de estresse e quatros solos

dintintos.

Fontes de variação GL

Tratamentos (irrigação) (3-1) = 2

Tratamento (níveis de estresse) (5-1) = 4

Tratamento (solos distintos) (4-1) = 3

Interação (estresse x solo) 4 x3= 12

Interação (irrigação x níveis de estresse) (3-1) x (5-1)= 8

Interação ( irrigação x distintos) (3-1) x (4-1)= 6

Interação (irrigaçãox níveis de estresse x solos distintos) (3-1) x (5-1) x (4-1)= 24

Tratamentos (60-1)=59

Blocos (4-1)= 3

Resíduos (60 – 1 ) (4 – 1)= 177

Total 60 x (4-1) = 239

Finalmente uma resposta correta. Como para o outro aluno que acertou este tipo de situação vai ganhar um

bônus, recebendo 1,5 na questão. Só não se acostume.

4. [] (IP:281473653997786 | 03:31:25 | 23:28:51 | 57:26 | 2.426)

Crie uma situação experimental para o uso do delineamento em blocos em um experimento de

laboratório. Justifique

Situação Totalmente Hipotética:

Produção do fungo Aspergillus japonicus URM5633, produtor de fitase, para inoculação em solos com baixa

disponibilidade de P. Inicialmente será conduzido em Laboratório (onde não tem o controle da temperatura

durante o dia), devido a problemas estruturais. Sendo produção do fungo influenciada, durante o processo

fermentativo da proteína do substrato .

Objetivo: O fungo será inoculado em diferentes substratos afim de se obter uma maior produção da enzima.

O experimento foi conduzido em laboratório, com delineamento de blocos ao acaso, sendo proposto, 3

tratamentos (1 controle e 2 substratos sintéticos), 6 repetições e sabe-se que existe variação em três tipos de

temperatura na sala do laboratório (estudo prévio com termômetros digitais), que será blocado o fator para

não influenciar nos resultados.

F.V. G.L.

TRATAMENTO 2

BLOCO 5

RESÍDUO 10

TOTAL 18

ok 1

5. [] (IP:281473653997786 | 03:31:48 | 23:29:41 | 57:53 | 46.904)

Considere e discuta a seguinte afirmativa: "Nem sempre o modelo com o melhor R² não-

ajustado é o mais adequado".

A afirmativa é coerente, pois o R2 não-ajustado é afetado pela adição de número de variáveis no modelo, ou

seja, quanto maior o número de variáveis utilizadas, maior é o R2 não-ajustado, ou seja, as variáveis

adicionadas podem não estar explicando nada, que mesmo assim estariam aumentando automaticamente o

R2. Neste caso a melhor opção é optar pelo R2 ajustado que retirar o efeito que veio somente do aumento do

número de variáveis que foram adicionadas. Se o R2 corrigido aumentar mesmo após o ajuste é porque não

é em função do aumento do número de variáveis e sim por que estas variáveis adicionadas estão explicando

melhor o modelo.

Excelente explicação 1

6. [] (IP:281473653997786 | 03:32:10 | 23:31:58 | 59:48 | 2.823)

Um experimento vai avaliar dez doses de fósforo em cinco solos diferentes em casa de

vegetação, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique e

determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

Tipo de delineamento: blocos casualizado

OBS: como na questão não é especificado as condições da casa de vegetação podemos usar o delinemanto

inteiramente casualizados se esta apresentar as condições ambientais homogêneas.

Arranjo: fatorial 10 x 5 com 4 repetições formando ao todo 200 unidades experimentais.

Justificativa: o uso de arranjo fatorial é necessário porque se tem a combinações entre dois grupos de

tratamentos doses de fosforo e solos diferentes. Para este exemplo o uso do DBC mesmo sendo este

experimento realizado em casa de vegetação pode se ter condições ambientais que não seja homogênea nesta

casa de vegetação.

Fontes de variação GL

DOSES 9

SOLOS 4

DOSES X SOLOS 36

TRATAMENTOS 49

BLOCO 3

RESIDUO 147

Ok 1 que não é festa

7. [] (IP:281473653997786 | 03:32:28 | 23:32:58 | 00:30 | 55.519)

Justifique a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer

todos os detalhes do trabalho"

A afirmativa está correta já que a escolha do delineamento está em função exclusiva das condições

ambientais , este ambiente pode incluir tamanho do experimento e equipe, então a decisão da escolhar do

melhor delineamento é baseada na situação do experimento, não em algo geral como laboratório ou campo.

Ok 1

8. [] (IP:281473653997786 | 03:32:50 | 23:34:30 | 01:40 | 2.705)

Um experimento vai avaliar a resposta de cinco cultivares de cana a quatro sistemas de

recomendação de calagem em quatro solos distintos, em casa de vegetação, com quatro

repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de

variação e graus de liberdade. Use tab para separar as colunas

Delineamento: blocos casualizados

Arranjo: fatorial 5 x 4 x 4 x 4, formando ao todo 320 unidades experimentais.

Justificativa: o uso de arranjo fatorial é necessário porque se tem a combinações entre vários grupos de

tratamentos doses de fosforo e solos diferentes.

Fonte de Variação G.L.

cana(c) 4

recomendação (r) 3

solo (r) 3

c xr 12

c x s 12

r x s 9

c x r x s 36

Tratamentos 79

Blocos 3

Resíduo 237

Total 319

Ótimo 1

9. 3:35:29 | 01:48 | 18.095)

Diferencie interação e efeito principal.

Efeito principal é quanto um dado fator não interfere em outro fator sendo considerados seus efeitos

isoladamente, este efeito principal só será levado em consideração quando este não estiver envolvido em

uma interação significativa e este for significativo, caso contrário, este efeito não será analisado.

Enquanto que o efeito interação, também chamado de efeito secundário, acontece quando um fator interfere

na resposta do outro, o contrário também é verdadeiro, sendo a resposta uma ação conjunta de dois ou mais

fatores, e só pode ser observado no experimento fatorial.

Excelente síntese 1

10. [] (IP:281473653997786 | 03:33:59 | 23:35:57 | 01:58 | 2.911)

Discuta os princípios experimentais e sua importância, incluindo formas de aplicação

Os três princípios experimentais são: a repetição, a casualização e o controle local. A repetição corresponde

ao número de vezes em que o mesmo tratamento se repete, sendo que, com o aumento desse parâmetro há a

diminuição da chance de erro do experimento, este princípio é utilizado quando se sabe de variações do

ambiente, e tenta-se minimizar esse efeito pelo aumento do número de repetições. A casualização é a forma

de evitar que o pesquisador seja tendencioso. É um processo de escolha aleatória de unidades experimentais

da amostra aos tratamentos, através de sorteios que proporcione a todas as unidades a mesma chance de

receber qualquer desses tratamentos. O controle local quando tiver variações do ambiente que seja possível

de perceber, como por exemplo: diferenças de vegetação, topografia, etc. Se as condições neste determinado

local não são homogêneas, o efeito do acaso é reduzido através do controle local, separando essas áreas em

blocos homogêneos, fazendo-se sorteios locais em cada bloco diferente.

Ok 1

11. [0.000] (IP:0 | 03:34:19 | --:--:-- | --:-- | ------ )

Será conduzido um projeto avaliando o efeito de características edafo-climáticas de municípios

representativos de cada microregião de Pernambuco sobre a microbiota do solo, incluindo

diversidade microbiana, respiração, biomassa, quociente metabólico, população de fungos,

nematóides e bactérias totais. Em cada municípios serão coletadas amostras de solo

representativas de cada tipo de solo descrito no Zoneamento Agroecológico de Pernambuco, e

coletados dados geoclimáticos juntos aos orgãos competentes.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

Em branco 0

12. [] (IP:281473653997786 | 03:34:41 | 23:37:16 | 02:35 | 13.556)

Diferencie fatorial de parcela subdividida, em termos de uso.

A principal diferença é que no arranjo em parcelas sub-divididas se tem o uso de parcelas diferentes para

cada fator tendo um fator principal que ocupar parcelas maiores e um outro fator que ocupa parcelas

menores (sub-parcelas) que ficam dentro da parcela principal e em função das diferentes parcelas há mais de

uma variação do acaso. No fatorial se tem o estudo de dois ou mais fatores e as possíveis interações entre

estes com o uso de todas as possíveis combinações. Outra diferença entre experimento fatorial e parcela

subdidividada está na forma de casualização dos fatores para o experimento em fatorial a casualização de

todas as combinações possíveis entre os dois grupos de tratamentos é feita de acordo com os princípios do

delineamento estatístico utilizado, enquanto para nos experimentos em parcelas subdivididas, a casualização

dos fatores é feita em duas etapas primeira etapa casualizam-se os níveis do fator que será avaliado nas

parcelas, de acordo com os princípios do delineamento estatístico utilizado; na segunda etapa, casualizam-

se, dentro de cada parcela, os níveis do fator que será avaliado nas subparcelas, em função desta

casualização neste experimentos de parcelas subdivididas se tem dosi resíduos distintos que são: o Resíduo

(a), que é a base de comparação dos níveis do fator que será avaliado nas parcelas; e o Resíduo (b), que é a

base de comparação dos níveis do fator que será avaliado nas subparcelas Com isso, leva-se a uma

diminuição no número de graus de liberdade dos resíduos, pois o GL Resíduo do fatorial = GL Resíduo (a) +

GL Resíduo (b) e, em consequência, aumenta o erro experimental. Portanto, nos experimentos em parcelas

subdivididas, todos os efeitos são avaliados com menor precisão que nos experimentos fatoriais

correspondentes. Por isso, sempre que for possível, é preferível utilizar os experimentos fatoriais em lugar

dos experimentos em parcelas subdivididas.

Ok 1

13. [] (IP:281473653997786 | 03:34:58 | 23:38:09 | 03:11 | 3.323)

Considerando que tenha encontrado problemas na avaliação das premissas do Modelo Linear

Generalizado, discuta as principais técnicas usadas para resolver estes problemas.

Dentre as técnicas podemos destacar: a transformação de dados a transformação de unidades ou a caráter de

escala ( logaritmo; arco seno; raiz quadrada e potência), corrigindo a falta de aditividade e diminuindo a

heterocedasticidade.

Testar a homocedase fazendo análise de variância dos resíduos em valores absolutos com os tratamentos,

onde as variâncias precisam ser homogêneas para que o teste F seja não significativo e assim indicar a

homocedase. Testes para homocedase (Cochran, Hartley, Bartlett e Levene), os testes mais utilizados são o

de Bartlett e o de Levene onde apresentam vantagens e desvantagens, o mais utilizado é o de Bartlett, devido

a tendência a mascarar as diferenças para curtose negativa, levando a encontrar uma curtose positiva e o

Levene faz a análise de variância dos resíduos em valores absolutos com os tratamentos; se as variâncias

forem homogêneas o teste F será não significativo. Não resolveu o problema, não usa o Modelo Linear

Generalizado e usar a estatística não paramétrica, que não exige distribuição normal, independência,

homocedase, porém ela não é tão precisa.

Ok 1

14. [] (IP:281473653997786 | 03:35:15 | 23:38:53 | 03:38 | 3.063)

Discuta as técnicas utilizadas para identificar e resolver problemas com outliers.

A existência de outliers que induzem a heterocedasticidade onde os pontos se comportam fora do normal é

identificados através da análise do resíduo padronizado onde se faz um relação média de cada tratamento,

que é calculado com a seguinte expressão RP=desvio/(raizQMR), se esse valor for de -3 a 3 vezes o resíduo,

ou seja, acima dos 95% dos valores, ele deve ser eliminado melhorando a homocedasticidade. Dentre as

técnicas usadas para resolver problemas de outliers podemos destacar a transformação dos dados através de

algums procedimentos matemáticos que são responsáveis por alteração sistemática num conjunto de dados

onde certas características são mudadas e outras permanecem inalteradas e dentre estas operações temos o

uso:

RAIZ QUADRADA- que são própria para certos tipos de dados em que a média é aproximadamente igual à

variância, ou seja, para dados oriundos de uma distribuição de Poisson.

LOGARITMO - É usada sempre que se têm dados em que os desvios padrões das amostras são

aproximadamente proporcionais às médias, ou seja, todas as amostras apresentam o mesmo coeficiente de

variação.

ARCOSENO – Própria para dados em que a média é proporcional à variância, ou seja, para dados oriundos

de uma distribuição binomial (tipo de distribuição em que os dados apresentam uma probabilidade

calculável de ocorrência ou não em qualquer indivíduo). É importante ainda verificar a homocedasticidade

dos dados, para que se for visualizado algum problema este possa ser corrigido e dentre os testes que podem

ser usados temos Cochran, Hartley, Bartlett e Levene, destes os mais utilizados são o de Bartlett e o de

Levene. Ambos apresentam vantagens e desvantagens, mas o mais utilizado é o de Bartlett, mesmo tendendo

a mascarar as diferenças para curtose negativa (levando a encontrar uma curtose positiva). Caso após a

transformação os dados ainda não obedeçam os requisitos do modelo, deve-se recorrer ao uso da estatística

não-paramétrica.

Nem mencionou uma das principais técnicas para resolver outliers, que é a eliminação deles… 0,75

15. [] (IP:281473653997786 | 03:35:33 | 23:39:44 | 04:11 | 47.705)

Discuta desvantagens derivadas do uso de muitos níveis de cada fator simultaneamente.

Em um esquema fatorial, o tratamento será a combinação de todos os fatores em seus diferentes níveis,

portanto, quanto maior o número de níveis que estiverem sendo avaliados, maior será o número de

tratamentos, levando à um experimento de maiores proporções, o que gera dificuldades na utilização do

controle local. Isso provoca uma redução na precisão do experimento, pois descumprimento deste princípio

experimental pode favorecer a ocorrência de heterocedasticidase, curtose, distribuição anormal dos dados,

etc.

Ok 1

16. [] (IP:281473653997786 | 03:35:53 | 23:40:29 | 04:36 | 34.274)

Descreva situações em que o uso da multivariada seria interessante em trabalhos de

experimentação.

A multivariada é uma das principais alternativas de analise quando se faz medições repetidas, levando para o

campo é importante o seu uso quAndo se analisa variavéis como profundidades de coleta de solos, é bastante

comum o uso de multivariada para variáveis como produção em cortes subsequentes. Na multivariada cada

data/profundidade é uma variável, como na univariada mas analisa todas juntas reduz erro tipo i, ao reduzir

o número de testes.

Situações é plural, portanto mais de uma. O exemplo está razoável 1

17. [] (IP:281473653997786 | 03:36:16 | 23:41:38 | 05:22 | 47.941)

Explique porque podemos considerar que o nível de significância de uma regressão é menos

crítico do que sua importância intrínseca.

O nível de significância avalia a chance de ocorrência de valores observados devido ao acaso, 5% devido ao

acaso e 95% devido aos tratamentos, por exemplo, e em experimentos que utilizam regressão, quando bem

conduzido e com adequada quantidade de pontos, a significância torna-se algo muito freqüente. Contudo

isso não pressupõe que o coeficiente de correlação entre dois fatores seja alto. Podem ser significativos com

baixos coeficientes de correlação, ou seja, médias com mínima diferença serem significativas, todavia

diferenças mínimas não são importantes do ponto de vista do pesquisador. A importância da análise de

regressão é função da variância no modelo, do tamanho do coeficiente de correlação e do intervalo de

confiança de interesse.

Ok, no entanto, o nível de significância não tem nada a ver com a chance de ser devida realmente ao

tratamento, já que a hipótese que está sendo testada não tem nada a ver com afirmar se os efeitos dos

tratamentos são reais, mas sim avaliar qual a chance de ocorrerem devido ao acaso 1

18. [] (IP:281473653997786 | 03:36:49 | 23:47:42 | 10:53 | 2.874)

Discuta a afirmativa: "Amostragem é uma mistura de arte e ciência"

Dentre as estratégias usadas para seleção do melhor modelo podemos destacar de se testar todas as

regressões possíveis, fazer eliminação para trás, que começa com todas as variáveis (p) e, testa todos os

modelos com p-1 variáveis. Para cada modelo, testa o efeito da retirada da última variável; Seleciona a

variável com menor efeito da retirada e reinicia com o segundo passo. A eliminação para frente também faz

parte da estratégia de escolha e consiste em justamente o contrário da eliminação para trás. Outra opção

como estratégia é o uso do procedimento de stepwise, que podem ser considerado como stepwise forward, e

está é baseado no princípio de que as variáveis preditoras devem ser adicionadas ao modelo uma de cada vez

até que não haja mais variáveis preditoras ou stepwise backward quando se retira uma variável em relação

ao backward, se uma variável retirada ocasionar perdas de informação ela pode retornar para o modelo,

diferentemente dos outros modelos que uma vez adicionada ou retirada uma variável do modelo, ela não

poderia mais deixar de fazer parte dele ou não poderia retornar para o mesmo.

O efeito destas estratégias sobre a probabilidade de ocorrência de erro tipo I é que como este procedimentos

utilizam de um elevado número de testes, é porque cada vez que se realizar um teste aumenta-se a

probabilidade de ocorrer o erro do tipo I, portanto a grande quantidade de testes que o stepwise realiza,

aumenta significativamente a probabilidade de acontecer este erro.

Aparentemente copiou a mesma resposta para duas questões diferentes, já que esta resposta está idêntica à

próxima, mas não tem absolutamente nada a ver com a pergunta 0

19. [] (IP:281473653997786 | 03:37:08 | 23:47:57 | 10:49 | 2.456)

Avalie o efeito de diferentes estratégias de seleção do melhor modelo sobre a probabilidade de

ocorrência de erro do tipo I.

Dentre as estratégias usadas para seleção do melhor modelo podemos destacar de se testar todas as

regressões possíveis, fazer eliminação para trás, que começa com todas as variáveis (p) e, testa todos os

modelos com p-1 variáveis. Para cada modelo, testa o efeito da retirada da última variável; Seleciona a

variável com menor efeito da retirada e reinicia com o segundo passo. A eliminação para frente também faz

parte da estratégia de escolha e consiste em justamente o contrário da eliminação para trás. Outra opção

como estratégia é o uso do procedimento de stepwise, que podem ser considerado como stepwise forward, e

está é baseado no princípio de que as variáveis preditoras devem ser adicionadas ao modelo uma de cada vez

até que não haja mais variáveis preditoras ou stepwise backward quando se retira uma variável em relação

ao backward, se uma variável retirada ocasionar perdas de informação ela pode retornar para o modelo,

diferentemente dos outros modelos que uma vez adicionada ou retirada uma variável do modelo, ela não

poderia mais deixar de fazer parte dele ou não poderia retornar para o mesmo.

O efeito destas estratégias sobre a probabilidade de ocorrência de erro tipo I é que como este procedimentos

utilizam de um elevado número de testes, é porque cada vez que se realizar um teste aumenta-se a

probabilidade de ocorrer o erro do tipo I, portanto a grande quantidade de testes que o stepwise realiza,

aumenta significativamente a probabilidade de acontecer este erro.

Ok 1

20.

Discuta as aplicações da medição repetida em solos.

Uma medição quando realizada na mesma variável ou unidade experimental em mais de uma ocasião ou

profundidade, pode ser chamada de medição repetida. Nesses tipos de medições, há a observação de uma ou

mais variáveis respostas em uma mesma unidade experimental em diferentes condições de avaliação.

Geralmente este tipo de medida é aplicado quando se trabalha com fatores como coleta de amostra de solos

em diferentes profundidades num mesmo ponto de amostragem. Nesta situação não é obedecido um dos

princípios do modelo linear generalizado que é a independência.

Ok 1

21. [] (IP:281473653997786 | 03:37:50 | 23:45:59 | 08:09 | 29.705)

Qual a principal vantagem do uso de regressões não lineares?

O uso deste tipo de regressão é vantajoso quando se pretende fazer a interpretação de fenômenos biológicos

(decomposição de matéria orgânica, liberação de nutrientes etc.), as regressões não lineares são bons

descritores de fenômenos biológicos que melhoram a capacidade de interpretação dos resultados, sua grande

vantagem é que cada parâmetro biológico tem um valor significativo (significado biológico).

Ok 1

1. [] (IP:281473653997786 | 08:25:32 | 23:12:40 | 47:08 | 2.604)

Debata os principais prós e contras das diferentes alternativas para análise de medições

repetidas.

Parcela Subdividida: possui um problema ao assumir a independência entre os tratamentos o que em campo

não é verdade, pois parcelas vizinhas tendem a ser mais semelhantes entre si do que aquelas que estão mais

distantes. Nós assumimos a independência porque precisamos assumi-la, exigência do modelo. Porém em

parcelas maiores esse problema pode ser minimizado, pois o centro de parcela estará mais distante do centro

de outras parcelas. É mais utilizada para medição no tempo, porém perde-se a capacidade de comprovar

estatisticamente o efeito tratamento x tempo em conjunto. Através do teste de esfericidade Mauchly para

cada variável, para verificar se há ou não independência, se ele não for significativo, pode-se aplicar a

parcela subdividida, se for significativo não se pode aplicar.

Analise univariada: porém muitos trabalhos assumem que ocorre interação entre A e B, porém isso não é

condizente, pois as variáveis foram analisadas separadamente. Outro problema é que ocorre um aumento na

chance de cometer o erro tipo I, pois o número de testes para cada variável faz com que o erro seja

acumulativo. Para corrigir é possível utilizar uma probabilidade menor, porém a chance de cometer o erros

tipo II aumenta, isto significa que as diferenças entre tratamento deverá ser grande o suficiente para que os

tratamentos sejam significativo. Para profundidade de solo, porém perde-se a capacidade comprovar

estatisticamente, o efeito tratamento x profundidade em conjunto, por não poder afirmar qual é a chance de

estar errado.

Multivariada: Analise conjunta de todas as variáveis em uma única análise, a comparação deixa de ser entre

os pontos e passa a ser entra cada conjunto de variáveis que compõem um vetor, esses vetores são

comparados entre si, sem erro acumulativo. A interpretação passa a ser diferente, pois não a mais os testes

de comparação de médias. Há a possibilidade de conhecer o conjunto de variável mais importante. Reduz a

chance de cometer erro tipo I, o erro acumulativo, devido a redução do número de testes para as variáveis.

Modelo Misto: ele pode ser usado para qualquer variável, o que nem sempre é verdade para parcela

subdividida, fazendo analise junta, nos diferentes tempos, que por sua vez não é o caso da univariada. Outra

vantagem é que a linguagem é bem semelhante a linguagem mais usual, que estamos acostumados a fazer,

como por exemplo o teste de Tukey e a regressão, assim como também diminui o tamanho e os custos com a

implantação do experimento, continuando com as mesmas características do arranjo fatorial. Depois que se

faz todos os modelos, é feita a seleção do modelo mais adequado, com base no AIC, que é um índice de

informação, quanto menor ele for, melhor, então pega-se todos eles e ver qual é o menor. Depois de fazer

isso é que se faz a análise.

A maior parte do que fala sobre parcela subdividida é bem mais ligada com o uso normal deste arranjo de

tratamentos, já que falar em centro de parcela com efeito de tempo não faz sentido algum. De resto ok 1

2. [] (IP:281473653997786 | 08:36:13 | 23:12:59 | 36:46 | 1.535)

Quais são os principais pontos que devemos avaliar ao estudar uma regressão?

Ao verificar que os pré-requisitos das premissas estão devidamente satisfeitos e que os dados obtidos

permitem construir uma regressão. Deve-se avaliar se a regressão obtida explica o que acontece com os

tratamentos. Se a regressão não explica o que acontece com os tratamentos a mesma perderá a importância.

Se ela explica, deve-se observar o grau de dependência entre as variáveis com o modelo linear, que pode ser

avaliado pelo coeficiente de regressão entre duas variáveis X e Y. Se o coeficiente de regressão for muito

baixo, ou até mesmo zero, isso indica ocorreu ausência total de dependência linear. Mas se o coeficiente de

regressão for alto, a continuidade da análise é valida, se o coeficiente de regressão for (-1 e 1) indica que

ocorre 100% de dependência das variáveis analisadas. Por fim, deve-se verificar se a regressão é

significativa, o que geralmente é verdadeiro, quando o coeficiente de regressão é alto.

Verificando assim que a regressão é significativa, então caso a regressão explique bem o comportamento do

que acontece na interação das variáveis. Caso seja possível deve-se tentar entender o que acontece com os

coeficientes de regressão.

Ok 1

3. [] (IP:281473653997786 | 08:36:59 | 23:13:19 | 36:20 | 18.416)

Discuta desvantagens derivadas do uso de muitos níveis de cada fator simultaneamente.

O uso de muitos fatores pode aumentar, consideravelmente, o número de tratamentos. Com isso, a realização

do experimento pode torna-se impraticável devido ao espaço físico exigido, além da questão financeira. Por

outro lado, devem-se considerar quais interações poderão ocorrer, por exemplo, triplas e quádruplas, pois

isto também pode acarretar dificuldades na interpretação dos resultados. Tais problemas devem ser

considerados antes de incorporar os fatores, devem-se selecionar fatores que sejam de grande relevância

para o experimento visando evitar problemas desnecessários.

Como o aumento do número de níveis poderia afetar o número de interações possíveis, se estas são devidas

ao número de fatores? 0

4. [] (IP:281473653997786 | 08:37:36 | 23:14:03 | 36:27 | 14.16)

Explique o que é repetição real.

A repetição real é definida como o número de vezes que um fator se repete dentro de um experimento. Em

um experimento os números de repetições reais são inferiores ao número de repetição total, como podemos

ver no seguinte caso: em um arranjamento fatorial com três sistemas de irrigação e dois tipos de cobertura

do solo (com e sem), totalizando dois fatores. Nesta situação temos seis repetições reais para irrigação, pois

temos dois tipos de cobertura do solo e três repetições (3x2=6), onde o fator irrigação ficou fixo. No outro

caso temos nove repetições reais para tipos de cobertura do solo, onde se fixa o tipo de cobertura do solo e

se tem três sistemas de irrigação com três repetições totalizando nove repetições reais para o fator tipo de

cobertura do solo. O total de parcelas dentro do experimento é de 18 parcelas, sendo que desse total apenas

15 são repetições reais.

Sem pé nem cabeça. O número de repetições reais é SEMPRE maior do que o de repetições físicas. Como

por definição a repetição real é quantas vezes cada nível de um fator aparece no experimento, e todo

tratamento tem um nível de cada fator, já inclui automaticamente o número de repetições físicas. No entanto,

além das repetições físicas, cada um dos níveis dos demais fatores irá aparecer com cada nível do primeiro

fator. Assim, admitindo a situação que você descreveu, teremos dois tratamentos (as duas coberturas) para

cada sistema de irrigação, e três para cada cobertura (os três sistemas de irrigação). Como cada tratamento

aparece uma vez em cada repetição, temos que em cada repetição física do experimento teremos duas

repetições reais para sistema de irrigação, e três para cobertura. 0

5. [] (IP:281473653997786 | 08:38:04 | 23:14:58 | 36:54 | 42.504)

Um projeto visa avaliar o efeito de toposequências em várias áreas representativas das cinco

regiões brasileiras, sendo o principal objetivo do projeto a generalização das conclusões para o

Brasil como um todo. Em cada toposequência deverão ser avaliadas características físicas,

químicas e microbiológicas do solo, além de classificação do solo ao longo de todos os pontos.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

Neste caso, o uso de uma análise multivariada seria mais indicado, pois a situação do projeto envolve muitas

variáveis e a multivariada pode trabalhar com as mesmas simultaneamente. Como o projeto envolve dados

menos estruturados, quando comparados a dados experimentais, logo a análise multivariada torna-se uma

ferramenta apropriada para estruturar os dados e facilitar o entendimento, o que é essencial para discussão

dos dados. Sua adoção ainda torna-se mais evidente por envolver a classificação de solos, pois os modelos

univariados não representariam bem este tipo de variável. O projeto não pode ser tratado através de uma

estatística experimental, pois não há tratamentos nem a necessidade de controlar o que ocorre no ambiente,

ou seja, as áreas já existem apenas deve-se analisá-las. Neste caso, trabalha-se com amostragem, onde a

adoção da estatística univariada é inadequada, pois não seria possível explicar o objeto de estudo com os

dados obtidos por amostragem. Utilizando a analise multivariada ocorrerá uma redução de dados, sacrificar

informações, e simplificação estrutural tornando as interpretações dos dados mais simples.

Não incluiu qualquer discussão da apresentação de dados, mas a discussão ficou tão boa e bem justificada

que ganha 1

6. [] (IP:281473653997786 | 08:38:58 | 23:16:03 | 37:05 | 15.997)

Discuta os princípios experimentais e sua importância, incluindo formas de aplicação

Os princípios experimentais fornecem orientações para a execução de um experimento científico, a adoção

desses princípios é fundamental para minimizar os efeitos da variabilidade, conferindo maior confiabilidade

e segurança nos dados experimentais obtidos, o que promove uma consistente conclusão ao final do estudo.

Os princípios experimentais são os seguintes: repetição, casualização e controle local.

Repetição: corresponde ao número de vezes que o mesmo tratamento aparece na unidade experimental. Tem

por finalidade conceder maior confiabilidade dos dados obtidos no experimento, possibilitando a observação

se houve efeito da variação do acaso, elevando a precisão das estimativas. A quantidade de repetições varia

em função das condições ambientais e econômicas que envolvem o experimento, no entanto, quanto maior o

número de repetições, menor será a variação do acaso, consequentemente, menor será a chance de cometer

erros.

Casualização: consiste em uma forma de não favorecer nem prejudicar um dado tratamento no momento de

alocá-lo dentro da área experimental. Geralmente, a distribuição dos tratamentos é feita por sorteio, afim de

que, dessa forma, seja possível admitir que todos os tratamentos estão sujeitos as mesmas variações

provocadas pelo acaso. Tendo por finalidade assegurar a validade da estimativa do erro experimental, pois

permite uma distribuição independente do erro experimental.

Controle local: é utilizado com o intuito de reduzir as influências das condições ambientais heterogêneas que

poderão interferir nos resultados do experimento. Desta forma, a divisão da área experimental heterogênea

em sub-grupos mais homogêneos dentro de si, irá reduzir a variação do acaso, e permitirá obter dados mais

consistentes.

ok 1

7. [] (IP:281473653997786 | 08:39:44 | 23:19:08 | 39:24 | 9.821)

Um experimento vai ser conduzido avaliando o efeito de três manejos de irrigação, com cinco

níveis de estresse e quatro solos distintos no sorgo, em casa de vegetação, com quatro

repetições. Indique arranjo e delineamento mais adequados, justifique e determine as fontes de

variação e graus de liberdade. Use tab para separar as colunas

Arranjo: Fatorial Simples com a seguinte notação: 3 x 5 x 4. Totalizando 60 tratamentos com 4 repetições, e

um total de 240 unidades experimentais.

Delineamento: O delineamento em blocos casualizados vai ser adotado considerando que dentro da casa de

vegetação poderão ocorrer variações de temperatura, e que esse efeito, se não controlado, poderá influenciar

nos resultados.

Fontes de variação GL

Tratamentos (irrigação) (3 – 1) = 2

Tratamento (níveis de estresse) (5 – 1) = 4

Tratamento (solos distintos) (4 – 1) = 3

(estresse x solo) 4 x 3= 12

(irrigação x níveis de estresse) (3 – 1) x (5 – 1) = 8

( irrigação x distintos) (3 – 1) x (4 – 1) = 6

(irrigação x estresse x solos ) (3 – 1) x (5 – 1) x (4 – 1)= 24

Tratamentos (60 – 1) = 59

Blocos (4 – 1) = 3

Resíduos (60 – 1) x (4 – 1)= 177

Total 60 x (4 – 1) = 239

Como para os demais que acertaram a análise de variância, ganha meio ponto de lambuja na primeira

situação 1,5

8. [] (IP:281473653997786 | 08:41:32 | 23:21:46 | 40:14 | 156.592)

Descreva situações em que o uso da multivariada seria interessante em trabalhos de

experimentação.

A análise multivariada pode ser utilizada em classificação do solo, onde as variáveis não são bem

estruturadas, não é possível fazer um experimento e, por isso trabalha-se com amostragens. Outra situação

para utilização da análise multivariada é no levantamento de solos afetados por sais, onde pode ser

analisados como variáveis a concentração de sais em diferentes ambientes, quais os sais predominantes,

níveis de salinidade e o espectro das áreas avaliadas. Nestas e em outras condições a analise multivariada

pode ser uma ótima ferramenta.

E desde quando classificação é experimental por gentileza? O mesmo vale para levantamento de solos

afetados por salinidade. As duas situações estão corretas, mas não são ligadas com a pergunta 0

9. [] (IP:281473653997786 | 08:42:16 | 23:22:27 | 40:11 | 26.931)

Discuta a afirmativa: "Muitas vezes uma amostragem completamente aleatória não representa

bem a população"

A representatividade de uma amostragem vai depender do objetivo do trabalho. Por exemplo, se o

pesquisador deseja estudar os problemas causados pelo excesso de sais nos solos em plantas de milho, o

mesmo deve ir para áreas onde há a ocorrência desses sais. Se o pesquisador for avaliar esses problemas

numa região como a Zona da Mata Sul do estado de Pernambuco, dificilmente encontrará uma amostragem

significativa. Ou seja, a aleatoriedade da amostragem deve ser direcionada ao objetivo do trabalho, de forma

a não prejudicar ou favorecer os tratamentos, neste caso, o bom senso do pesquisador deve prevalecer.

Cuméqueé? Não tem amostragem no mundo que compense um problema como fazer avaliação de salinidade

do solo na Zona da Mata. A ideia é3 m situações que façam o mínimo de senso conduzir a pesquisa, não em

algo tão sem sentido quanto isto. 0

10. [] (IP:281473653997786 | 08:42:50 | 23:27:41 | 44:51 | 209.525)

Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor

nível de um fator".

Sim, para essas condições têm-se o melhor nível para um determinado fator. Pois a interação significativa

descreve a melhor relação entre os fatores em seus respectivos níveis.

Antes muito pelo contrário. Quando a interação é significativa NÃO podemos falar no melhor um sem

pensar no outro. 0

11. [] (IP:281473653997786 | 08:43:35 | 23:28:16 | 44:41 | 23.683)

Discuta vantagens e desvantagens do procedimento stepwise para seleção de modelo de

regressão linear múltipla.

A vantagem do procedimento stepwise é que ao se adicionar (no caso do stepwise forward) ou retirar uma

variável (no caso do stepwise backward), todas as outras variáveis que já faziam parte do modelo são

testadas novamente, se houver uma variável que possa ser retira sem que ocorra perdas relevantes de

informação, ela é automaticamente excluída do modelo. Com relação ao backward, se a retirada de uma

variável ocasionar perdas de informação a mesma pode retornar para o modelo, o que não ocorre com outros

modelos, que uma vez adicionada ou retirada uma determinada variável do modelo, a mesma não poderia

mais deixar de fazer parte dele ou não poderia retornar para o mesmo. A confiança de que as variáveis que

compõem o modelo são realmente importantes e que, essencialmente, devem fazer parte dele, é outra grande

vantagem. Com relação à desvantagem do procedimento stepwise, é que como se aplica um elevado número

de testes, sendo aplicado um F para cada um dos possíveis modelos que irá entrar, a probabilidade de ocorrer

o erro do tipo I também aumenta.

Ok 1

12. [] (IP:281473653997786 | 08:44:00 | 23:28:37 | 44:37 | 15.353)

Considerando um experimento estudando três níveis de adubação orgânica, discuta se o

melhor caminho para análise é a regressão ou comparação de médias.

Levando em consideração o estudo de níveis e variáveis quantitativas, uma analise de regressão dos dados

poderia ser adotada, porém devemos ressalvar que esse tipo de regressão, utilizando três pontos, não oferece

suporte para explicar o efeito biológico dos resultados, pois a reta formada indicará até o ponto máximo que

a produção vai responder à adubação. A comparação de médias, nesta situação seria mais recomendada, pois

através dela pode-se verifica qual das doses proporciona melhor, menor e/ou semelhante resposta para

determinado parâmetro, além de fornecer o grau de confiança do experimento.

Ok 1

13. [] (IP:281473653997786 | 08:44:31 | 23:28:59 | 44:28 | 17.631)

Discuta o significado e possíveis implicações do AIC

O AIC (Critério de Informação de Akaike) é baseado na teoria de informação, é uma forma alternativa para

escolher o melhor modelo de regressão, onde, o melhor modelo é aquele que apresentar o menor índice de

AIC. Teoricamente esse índice avalia ao mesmo tempo a qualidade da informação, qualidade da ligação

entre as variáveis com o número de variáveis que é utilizada. Quanto menor ele é, mais explica com menos

variáveis. Este critério combina quanto o modelo explica com o número de variáveis usado para isto. Quanto

menor, mais o modelo explica com o menor custo em número de variáveis.

Ok 1

14. [] (IP:281473653997786 | 08:44:57 | 23:29:21 | 44:24 | 18.388)

A existência de interação significativa altera as perguntas que podem ser respondidas?

Sim, porque se há uma interação significativa A X B, implicará dizer que A ou B individualmente não são

tão importantes quanto os dois estão juntos. Com isso o estudo do efeito A ou B isoladamente torna-se

desnecessário, pelo menos diante do que esta sendo estudado. Ou seja, o efeito A ou B são significativos?

Independentemente de serem ou não significativos, isso perde a importância diante da interação A x B.

Exatamente isto que é o oposto do que você afirmou na questão 10. 1

15. [] (IP:281473653997786 | 08:45:15 | 23:29:54 | 44:39 | 26.988)

Diferencie fatorial de parcela subdividida, em termos de uso.

Em termos de uso, a diferença entre o Fatorial Normal e a Parcela Sub-dividida esta na forma de como é

arranjado os tratamentos. No Fatorial Normal cada parcela é formada pelos tratamentos e suas combinações

de forma isolada, ou seja, dentro de uma mesma hierarquia. A Parcela Sub-dividida é formada por parcelas

principais, composta por um determinado fator com seus respectivos níveis que exige maior quantidade de

material experimental, e por sub-parcelas que ficam dentro da parcela principal, compostas por fatores com

seus respectivos níveis que não exigem grandes quantidades de material experimental, ou seja, a área

exigida neste Fatorial é menor que no Fatorial Normal. Na Parcela Sub-dividida observa-se que há uma

hierarquia no arranjo dos tratamentos, parcelas principais e sub-parcelas, além disso, o número de

casualizações na Parcela Sub-divida também difere do Fatorial Normal por ser muito superior a este.

E nem comenta a principal diferença que é a divisão do resíduo 0,75

16. [] (IP:281473653997786 | 08:45:29 | 23:30:23 | 44:54 | 1.61)

Discuta os diferentes testes utilizados para avaliação da normalidade.

Os principais testes de normalidade, utilizados para verificar se os dados de uma determinada variável

obedecem a uma distribuição normal de probabilidades, são:

Qui-quadrado (x²), que compara as frequências observadas com as frequências esperadas, ou seja, mede a

eficiência do ajuste da distribuição, tem por objetivo verificar se uma amostra pode ser considerada como

proveniente de uma população com uma determinada distribuição, também pode ser usado para verificar se

as categorias de uma variável estão equitativamente distribuídas;

O teste de Kolmogorov-Smirnov é baseado na diferença máxima entre a distribuição acumulada da amostra

e a distribuição acumulada esperada, é mais eficiente que o teste Qui-quadrado (x²).

O teste de Shapiro-Wilks é basado nos valores amostrais ordenados elevados ao quadrado e tem sido o teste

de normalidade preferido por mostrar ser mais poderoso que diversos testes alternativos, também é

recomendado para amostras de dimensão mais reduzida.

Ok 1

17. [] (IP:281473653997786 | 08:45:47 | 23:30:46 | 44:59 | 21)

Todo fatorial com o mesmo número de tratamentos tem o mesmo grau de complexidade?

Não necessariamente, pois a complexidade vai depender de como os tratamentos serão arranjados, ou seja,

de quantos fatores e níveis estão envolvidos no estudo. Por exemplo, partindo de oito tratamentos quaisquer,

estes poderiam ser arranjados da seguinte forma: 2x2x2 ou 2x4. Ou seja, com um mesmo número de

tratamentos podemos arranjá-los de formas diferentes o que irá gerar interpretações com diferentes graus de

complexidade. Sendo que, no primeiro caso (2x2x2) poderemos ter uma interação tripla significativa que,

consequentemente, tem um grau de complexidade maior em relação ao segundo caso (4x2), que terá no

máximo uma interação dupla significativa.

Exato 1

18. [] (IP:281473653997786 | 08:46:53 | 23:31:11 | 44:18 | 3.022)

Discuta os principais critérios que devem ser adotados na seleção do delineamento

experimental.

Para selecionar um delineamento experimental apropriado é preciso saber quais são as condições exigidas

pelo experimento para que seja realizado (por exemplo, equipamentos) e a partir daí, observar se haverá ou

não necessidade de aplicar o controle local e como ele vai ser aplicado. De modo geral observa-se se há ou

não homogeneidade ou heterogeneidade, se há heterogeneidade identificar as causas e fontes para evitar

influências da variação do acaso sobre os tratamentos. Observar o tamanho do experimento e a necessidade

de mão-de-obra. Tendo como principal função na escolha, o delineamento que reduza essa variação do acaso

e conseqüentemente o erro experimental.

ok 1

19. [] (IP:281473653997786 | 08:47:07 | 23:31:34 | 44:27 | 22.23)

Relacione os princípios experimentais com as premissas do Modelo Linear Generalizado,

explicando como é o relacionamento.

O Modelo Linear Generalizado é caracterizado por uma equação entre um dado valor de um ponto qualquer

com o somatório entre a média dos efeitos de tratamento, podendo ser positivos ou negativos, e a variação

do acaso. É uma equação com duas incógnitas, tratamento e acaso, que precisa que alguns requisitos sejam

satisfeitos, a saber: amostragem aleatória, efeitos aditivos, distribuição normal, erros experimentais

independentes e a homocedasticidade. Os princípios experimentais permitem a medir a variação do acaso

pela repetição, a qual é fundamental para analisar a homocedasticidade e a distribuição normal; a

casualização permite validar a estimativa dos efeitos do acaso garantindo a distribuição independente do

erro; e o controle local reduz ao máximo o erro com o condicionamento homogêneo entre os tratamentos,

evitando a entrada de uma terceira variável na equação do MLG. Ou seja, os princípios experimentais

permitem que a variação do acaso seja calculada separadamente dos tratamentos. Desta forma, é essencial a

relação entre os princípios experimentais com as premissas do MLG para que os dados obtidos em um

experimento qualquer possam ser aplicados no modelo sem afetar o poder dos testes.

Ok 1

20. [] (IP:281473653997786 | 08:47:30 | 23:31:58 | 44:28 | 20.631)

Discuta a afirmativa: "Não é possível afirmar qual o melhor delineamento sem conhecer todos

os detalhes do trabalho"

A escolha do delineamento deve ser baseada nas condições em que o experimento deve ser submetido, por

exemplo, condições ambientais, tais como temperatura, fertilidade do solo, luminosidade, relevo,

homogeneidade ou heterogeneidade, entre outros. Através do conhecimento das condições reinantes a que o

experimento será submetido, o pesquisador poderá adotar o delineamento mais adequado, por exemplo, DIC

ou DBC. Cabe ao pesquisador saber qual o melhor delineamento a ser adotado em função das condições

experimentais, não adotando métodos tradicionais, mas aquele que venha solucionar os problemas e não

aumentá-los.

Falou muito e não disse nada, ou quase nada. Como o conhecimento do ambiente poderá permitir a

definição do delineamento experimental? 0,75

21. [] (IP:281473653997786 | 08:47:51 | 23:33:40 | 45:49 | 2.647)

Um experimento foi realizado em casa de vegetação, estudando vinte e cinco inoculantes

diferentes para quatro variedades de feijão, utilizando quatro repetições. Só há 50 potes

disponíveis. Indique arranjo e delineamento mais adequados, justifique e determine as fontes

de variação e graus de liberdade. Use tab para separar as colunas

Arranjo: Arranjo Fatorial Simples 25 x 4 com quatro repetições totalizando 400 unidades experimentais.

Delineamento: Delineamento em blocos casualizados incompletos parcialmente balanceados

Justificativa: Embora o experimento seja conduzido em casa de vegetação o número de potes é limitado, o

que nos força a utilizar um DBC incompleto parcialmente balanceado. Incompleto parcialmente balanceado

porque não é possível colocar o mesmo número de tratamentos nos blocos e este modelo atende os

requisitos. O arranjo escolhido possui 25 fatores e 4 níveis.

Nº de tratamentos (t) = 100

Nº de blocos = k :. K = (t)0,5 :. K = (100)0,5 :. K = 10

Fonte de variação GL

Repetição 4 – 1 = 3

Tratamento (não justado) (K2) – 1 = 99

Blocos dentro da repetição 4 (K - 3) = 36

Erro intra-blocos (K – 1) [(4 x K) – (K – 1)] =261

Tratamento (justado) (K2) – 1 = 99

Total [4 (K2)] – 1= 399

Acertou no delineamento fora do usual, que eu terminei pedindo por erro, mas errou no fatorial. Assim como

os demais que usaram a mesma solução (aliás completamente idêntica em todos os casos) vou aceitar como

completamente correta, mas apenas porque pegaram uma solução que eu não tinha explicado 1

22. [] (IP:281473653997786 | 08:48:17 | 23:34:32 | 46:15 | 3.168)

Um experimento vai avaliar a resposta de dez cultivares de soja a cinco inoculantes rizobianos,

em campo, com quatro repetições. Indique arranjo e delineamento mais adequados, justifique

e determine as fontes de variação e graus de liberdade. Use tab para separar as colunas

Arranjo: Fatorial Simples 10 x 5 com quatro repetições totalizando 200 unidades experimentais.

Delineamento: Delineamento em blocos casualizados

Justificativa: Como o trabalho será conduzido em campo onde as condições são bastante adversas (exemplo,

mancha de solo diferente, relevo) o delineamento mais adequado é o DBC, pois através do mesmo será

possível diminuir a interferência de fatores externos. O arranjo foi baseado nos 10 fatores (cultivares de

soja) e seus cinco níveis (inoculantes rizobianos).

Fonte de variação GL

Tratamento 50 – 1 = 49

Blocos 4 – 1 = 3

Resíduo 49 x 3 = 147

Total (50 x 4) – 1 =199

Gostaria de saber como acertou as outras questões deste estilo e errou esta com um erro igual ao de diversos

colegas, de reconhecer o fatorial na discussão e errar na análise de variância 0,25

1. [] (IP:281473660056925 | 06:59:28 | 23:07:28 | 08:00 | 0.872)

Porque precisamos considerar que a variação do acaso no conjunto de um tratamento é zero?

Qual o raciocínio lógico por trás disto?

Para conseguir calcular o resíduo, pois quando anula-se a variação do acaso no conjunto de um tratamento

obtém-se o valor do resíduo, caso não fosse anulada a variação do acaso no conjunto de um tratamento, não

teria como saber se a variação foi realmente devido ao acaso ou se foi devido ao tratamento. Essa anulação

funciona como isolante para saber o que é devido ao resíduo (variação ao acaso) do que é devido ao

tratamento.

A variação do acaso interfere na resposta dos tratamentos, então é necessário determinar sua influência, e

não teria como saber sua interferência se a variação do acaso no conjunto de um tratamento não fosse

anulada. raciocínio é de que excluindo um, o outro será obtido.

Faltou explicar que o raciocínio é baseado na distribuição normal 1

2. [] (IP:281473660056925 | 07:00:26 | 23:08:53 | 08:27 | 84.616)

Considere e discuta a seguinte afirmativa: "Nem sempre o modelo com o melhor R² não-

ajustado é o mais adequado".

Correto. O R² não ajustado nem sempre é um bom indicador do grau de ajustamento do modelo, deve-se

observar o R² ajustado. Observando-se apenas o R² não ajustado não é o suficiente para indicar o melhor

modelo, pois quanto mais parâmetros (variáveis) são adicionadas no modelo maior será o R², mas maior R²

não implica necessariamente no modelo mais adequado, pois pode-se estar adicionando parâmetros

(variáveis) no modelo e estes pouco contribuírem para explicar determinado acontecimento, serem pouco

importantes, trazerem poucas informações uteis, que pouco contribuem para o entendimento, assim

dificultará a explicação dos resultados. Já observando-se o R² ajustado esse leva em consideração todos os

parâmetros (variáveis) adicionados ao modelo (ele corrige), fornecendo melhor idéia da proporção da

variação de y explicada pelo modelo de regressão uma vez que leva em consideração a quantidade de

parâmetros (variáveis) que são adicionadas ao modelo.Então, se existe um modelo com 10 parâmetros

(variáveis) e com um alto R² não-ajustado e outro com 2 variaveis e um menor R² ajustado, será melhor

utilizar o R² ajustado, pois mesmo este sendo um pouco inferior (dependendo da situação) ele explica

melhor o acontecimento, além da discussão ser facilitada, já que são apenas 2 variaveis a serem discutidas,

ao passo que o R² não-ajustado caso for maior, esse maior valor não implica necessariamente em maior

explicação, porque foi adicionado muitos parâmetros (variáveis) que pouco explicam os acontecimentos, e

também a discussão será dificultada, pois explicar 10 parâmetros (variáveis) é mais trabalhoso e complicado

que explicar 2.

Ok 1

3. [] (IP:281473660056925 | 07:00:47 | 23:10:35 | 09:48 | 86.434)

Discuta desvantagens derivadas do uso de muitos fatores simultaneamente.

Ao utilizar-se vários fatores simultaneamente a complexidade do arranjo fatorial e do experimento aumenta

substancialmente, a quantidade de tratamentos e de informações a serem trabalhadas são altas, o que

dificulta a interpretação e o entendimento do que se esta avaliando. Fica difícil explicar quando existir

interação de vários fatores. Por exemplo, um experimento estudando 7 fatores (cálcio – A, magnésio - B,

carbono - C, fósforo - D, potássio - E, enxofre - F, boro - G), em 2 níveis, será difícil explicar caso ocorra

uma interação significativa de AxBxCxDxExFxG. Outro ponto é que dado a grande quantidade de

tratamentos, com o aumento do número de fatores, torna-se difícil distribuir esses tratamentos dentro do

experimento. Assim não é recomendado o uso de muitos fatores simultaneamente pois poderá ter muitas

interações, muitos efeitos principais o que dificultará a interpretação dos resultados.

Correto, mas além da possibilidade da interação de nível mais alto, podem ocorrer mais interações de níveis

mais baixos, diferentes para cada variável estudada, o que fica bastante difícil de explicar 1

4. [] (IP:281473660056925 | 07:01:09 | 23:11:37 | 10:28 | 51.863)

Será realizado um projeto avaliando o efeito do tempo de cultivo da cana (0, 5, 10, 15 e 20 anos)

sobre características físicas (densidade, capacidade de retenção de água, resistência à

penetração, condutividade hidráulica saturada), químicas (pH, Al, H+Al, P, K, Ca, Mg,

saturação por bases, CTC, C orgânico) e microbiológicas do solo (população de nematóides,

respiração, biomassa, N e P microbianos). Serão realizadas amostragens apenas em áreas com

histórico conhecido, com o mesmo tipo de solo para todos os períodos e submetidas

aproximadamente ao mesmo manejo. A pesquisa será conduzida em todo o Brasil, com

amostras de cada uma das condições em uma mesma propriedade rural.

explanation:

Descreva o procedimento de análise de dados (formação dos tratamentos, delineamento

experimental e/ou amostral, e como os resultados devem ser explorados). Indique como

deveriam ser montadas as tabelas e/ou figuras mais adequadas para apresentar os resultados.

Justifique suas posições.

Arranjamento será em parcelas subdividas com medição repetida no tempo. O delineamento experimental

será em blocos casualizados, pois mesmo tendo igual tipo de solo e manejo as condições ambientais não são

controladas, e existe variações de um ponto a outro. Os dados serão analisados a partir do modelo misto

(MM). Quando se utiliza o MM este já considera que existe dependência, essa dependência já esta contida

no modelo, e seleciona-se o modelo de parcela subdividida. Como não apresenta é observado o AIC, que

quanto menor, melhor.

Não pode ser experimento sob hipótese alguma, já que não tem como casualizar, por exemplo. Estes dados

são necessariamente amostrais, e o melhor caminho de análise é o uso de multivariada para entender como o

tempo afeta o conjunto de variáveis, além de permitir tentar entender como as variáveis se afetam. 0

5. [] (IP:281473660056925 | 07:01:31 | 23:12:30 | 10:59 | 1.119)

Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de

informação que podemos tirar deles

Os teste de hipótese permite aceitar ou rejeitar uma determinada hipótese. Quando é observado altos valores

da estatística o teste é o bilateral, afirma-se que a hipótese alternativa (Ha) é diferente de H0. Quando a

finalidade é apenas um dos altos valores dessa estatística o teste é unilateral. Ao afirmar que Ha é superior a

H0 (Ha > H0) o teste é unilateral à direita, já quando afirmamos que Ha é menor que H0 (Ha < H0) o teste é

unilateral à esquerda.

Para a análise de variância é utilizado o teste F, empregado na comparação de médias. Dentre vários testes,

um deles é o teste t de Student, existe ainda o teste de Tukey, o teste Qui Quadrado, teste de Dunnett, teste

de Scheffé. O teste F, consiste na decomposição da variância total, visando comparar estimativas de

variâncias e dos graus de liberdade em partes que podem ser atribuídas a causas conhecidas e independentes

(fatores que podem ser controlado) e a uma porção residual de origem desconhecida e natureza aleatória

(fatores não controlados).

O teste de Tukey é bastante utilizado por ser rigoroso e de fácil aplicação, ele é utilizado para testar toda e

qualquer diferença entre duas médias de tratamento. Outro teste é o Qui Quadrado, que é um teste de

hipóteses, que visa encontrar um valor da dispersão para duas variáveis nominais, avaliando a associação

existente entre variáveis qualitativas. Este teste não depende dos parâmetros populacionais, como média e

variância. O Qui Quadrado buscar possíveis divergências entre as frequências observadas e esperadas para

certo evento.

O teste de Scheffé é um teste de comparações múltiplas podendo ser utilizado para comparar qualquer

contraste de médias e o teste de Dunnett é utilizado quando o interesse é comparar as médias dos grupos

tratados apenas com a média do controle. As informações que podem ser obtidas com os testes de hipóteses

esta relacionada em dizer se os tratamentos estudados são iguais ou diferentes ao já existente (H0). Com

certa frequência as informações nos testes de hipótese podem estar relacionadas a erros do tipo I e tipo II. A

escolha da melhor hipótese alternativa influência no poder do teste. Resaltando que são apenas alguns de

vários testes existentes na literatura.

Ok 1, mas está difícil de entender o que quer dizer com a primeira parte

6. [] (IP:281473660056925 | 07:01:52 | 23:13:32 | 11:40 | 0.048)

Um experimento vai ser conduzido avaliando o efeito de cinco inoculantes rizobianos em dez

variedades de caupi e quatro solos, em casa de vegetação, com quatro repetições. Indique

arranjo e delineamento mais adequados, justifique e determine as fontes de variação e graus de

liberdade. Use tab para separar as colunas

Será utilizado o delineamento em blocos casualizados, devido a casa de vegetação apresentar condições

ambientais heterogêneas. Existe partes na casa de vegetação que recebem maior radiação solar, e isso poderá

favorecer o(s) tratamento(s) que esta(ão) nessa parte. Serão 4 blocos. A escolha pelo arranjamento fatorial é

devido este possui maior precisão que as parcelas subdivididas no experimento como um todo. No

arranjamento fatorial existe maior número de repetições, maior grau de liberdade do resíduo e menor o

coeficiente de variação. Outro ponto pelo uso do DBC é que serão necessários 800 unidades experimentais,

existe disponibilidade de material, entretanto não de pessoal (mão-de-obra), sendo fragmentado a instalação

desse experimento em 4 dias.

ANOVA

Fontes de variação GL SQ QM F

Tratamentos (t - 1) => 200-1 = 199 (∑ T²/b) – C SQT/GLT QMT/QMR

Blocos (b - 1) => 4-1 = (∑ B²/t) – C SQB/GLB

Resíduo (t - 1)x(b - 1) => 199x3 = 597 (*) Diferença SQR/GLR

Total (tb - 1) => (200x4)-1 = 799 ∑ x² - C

GL = Graus de liberdade; SQ = Soma de quadrados; QM = Quadrado médio; F = Teste F.

(*) = Vem de (tb-1)-(t-1)-(b-1). Para facilitar os cálculos geralmente é obtida por diferença.

t = número de tratamentos; b = número de blocos; T = total de cada tratamento; B = total de cada bloco.

= [(∑ x)²]/RT

identificou o fatorial na descrição, mas não na análise 0,25

7. [] (IP:281473660056925 | 07:02:13 | 23:14:16 | 12:03 | 43.147)

Discuta a relação entre a regressão e um relacionamento causa-efeito.

Não existe relação entre regressão e um relacionamento causa e efeito, a existência de regressão não tem

vínculo/elo com um relacionamento de causa e efeito. A regressão é um modelo matemático que liga duas

ou mais variáveis, demonstra apenas a ligação entre as variáveis, não devendo ser entendida como função de

causa e efeito. A variável dependente pode ser estimada a partir deste modelo. O pesquisador, através de seu

conhecimento científico, é que define se existe alguma relação de causa-efeito da ligação entre as variáveis

estudadas.

Correto 1

8. [] (IP:281473660056925 | 07:02:36 | 23:15:52 | 13:16 | 91.018)

Discuta os principais critérios que devem ser adotados na seleção do delineamento

experimental.

O critério refere-se ao fator escolhido para comparação. Deve-se ter motivos consistentes para escolher um

ou outro delineamento, isso será de acordo com base no experimento como um todo e também das condições

reinantes. O principal critério adotado é o controle do local, que em delineamentos inteiramente casualizados

o ambiente é homogêneo, então não precisa controlar a variação ambiental, pois não existe, entretanto, nos

delineamentos em blocos casualizados o ambiente é heterogêneo sendo necessário controlar essa variação

para ter confiança nos resultados e saber que realmente eles refletem o que acontece na população. Quando

utiliza-se DBC, gasta-se graus de liberdade (GL), dessa forma só deve ser utilizado DBC se existir fatores a

serem controlados, porque senão estará gastando GL sem necessidade.

Ok 1

9. [] (IP:281473660056925 | 07:02:55 | 23:16:50 | 13:55 | 1.484)

Debata os principais prós e contras das diferentes alternativas para análise de medições

repetidas.

As principais alternativas são: univariada que analisa cada variável separadamente, multivariada, parcela

subdividida ou modelo misto (MM).

No caso da utilização de parcelas subdivididas a independência pode existir e pode ser medida através do

teste de esfericidade de Mauchly, entretanto não se pode assumir independência. Assim pode-se utilizar,

pois tem a vantagem de utilizar por exemplo uma menor área, reduzindo custos, entretanto é fundamental

saber se o uso desta resulta em vantagens, e se pode-se utilizar esta, fazendo o teste de esfericidade e

observando se o critério de independência foi atendido. A utilização de parcelas subdivididas esta bastante

associada com a questão do comodismo, desde antigamente se usa, e não parou-se para questionar se

realmente existe vantagem, e em que casos se tem vantagem, antes os cálculos eram feitos a mão e usar

parcela subdividida era a melhor opção, só que nos dias atuais existe computadores que processam muito

rápido, além de programas estatísticos de boa qualidade. Quando se faz o teste de esfericidade, sabe-se se

pode ou não utilizar parcela subdividida, em algumas análises poderá ocorrer de poder utilizar, em outras

não, ou em casos em que poderá utilizar em todas, e outros não, tem que se realizar este teste para saber se

pode ou não utilizar parcela subdividida.

No caso da utilização da analise multivariada, cada profundidade e o tempo são considerados como

variáveis. Na analise multivariada, analisa-se conjuntamente todas as variáveis com apenas uma análise, as

variáveis se transformam em matrizes vetores e a comparação passa a ser realizada entre os vetores e não

entre os pontos, reduzindo o erro tipo I, pois o número de teste realizados são menores, já que não são

necessários fazer uma grande quantidade de testes para cada variável com é o caso da univariada. Dessa

forma a vantagem da multivariada é essa redução do erro tipo I, devido a menor quantidade de testes que são

realizados. A interpretação muda um pouco já que não esta mais trabalhando-se com médias e sim com

vetores. Como exemplo pode citar a avaliação de vários parâmetros físicos do solo, com a multivariada

forma-se um pacote dessas variáveis e trabalham-se essas como um todo, reduzindo bastante o numero de

testes a serem realizados. Já a univariada tem o problema de por realizar muitos testes, e na maioria das

vezes por trabalhar com muitas variáveis, no final a quantidade de testes realizados é enorme, sendo o erro

tipo I cumulativo, isso pode acarretar em conclusões equivocadas no trabalho. Pois existe uma maior chance

de estar assumindo que existe diferenças quando na realidade não existe. No exemplo dado, para cada

parâmetro físico seria realizado um teste, o que acarreta no final grande quantidade de testes, ocorrendo erro

cumulativo do tipo I.

Já o modelo misto é muito bom, pois é valido em qualquer situação. As variáveis ficam em um mesmo nível,

mas ele não possui cv (causa de variação), é necessário utilizar outra medida de variação como por exemplo

o erro padrão. O modelo misto reconhece que existe dependência intrinsecamente no modelo, a descrição

matemática do modelo é adequada com a independência que é exigida. Assim não é necessário fazer testes

para saber se pode ou não utilizar. A interpretação do modelo misto é praticamente igual a da univariada, e

no modelo misto pode-se selecionar um modelo em que ele corresponde a parcela subdivida, mas sem a

necessidade de fazer o teste de esfericidade. Outra vantagem do modelo misto é que a análise do tukey por

exemplo, e de outros testes é igual a da univariada, a discussão é relativamente fácil, pois já se sabe fazer

porque assemelha-se com o do fatorial e sua estatística também é parecida com a de um fatorial.

Ok 1

10. [] (IP:281473660056925 | 07:03:16 | 23:17:22 | 14:06 | 1.085)

Diferencie repetição real, repetição experimental, e réplica.

A réplica não tem variação do acaso para determinado objetivo em dado momento. Geralmente (não quer

dizer sempre) é utilizada para avaliar a variação metodológica de equipamentos para verificar sua precisão.

Pode ser o erro da máquina, do operador da máquina, da homogeneização da amostra, entre outros.

A repetição experimental existe variação do acaso e quanto mais repetições melhor, pois melhorará a

precisão do experimento. É considerada o número de vezes que aparece o tratamento.

Exemplo: Coleta de amostras de solo em 1 área de Cambissolo. Foram coletadas 15 amostras, cada amostra

é uma repetição. Agora se de cada amostra fosse retirada subamostras e fossem feitas análises, isso seria a

réplica, pois se está fazendo analises da mesma amostra.

Repetição real representa quantas vezes um determinado fator que faz parte do tratamento vai aparecer, isto

é, cada efeito principal aparece no experimento.Depende da quantidade de níveis de cada fator e do número

físico de repetições do tratamento, como existe a possibilidade de ocorrer números distintos de níveis para

cada fator, cada nível de um fator pode ocorrer em distintas quantidades.

Ok 1

11. [] (IP:281473660056925 | 07:03:38 | 23:18:12 | 14:34 | 0.804)

Um experimento foi conduzido em laboratório estudando a resistência de 100 estirpes

rizobianas a três temperaturas. Serão utilizadas dez repetições e as estufas bacteriológicas

disponíveis só cabem 500 placas de petri de cada vez. Indique arranjo e delineamento mais

adequados, justifique e determine as fontes de variação e graus de liberdade. Use tab para

separar as colunas

Será utilizado o delineamento em blocos casualizados devido a limitação de material, pois existem apenas

500 placas de petri disponíveis por vez, e a quantidade necessária no total é de 3000. Outro ponto é a

limitação de pessoal (mão-de-obra), assim será instalado 300 placas de petri por período. Como é necessário

3000 placas de petri no total (3000 unidades experimentais), o arranjamento pode ser em fatorial 100

(estirpes) x 3 (temperaturas). O arranjo fatorial é mais preciso do que a parcela subdividida, possui maior

número de repetições e como só terá 2 fatores, a discussão não se torna complexa.

ANOVA

Fontes de variação GL SQ QM F

Tratamentos (t - 1) => 300-1 = 299 (∑ T²/b) – C SQT/GLT QMT/QMR

Blocos (b - 1) => 10-1 = 9 (∑ B²/t) – C SQB/GLB

Resíduo (t - 1)x(b - 1) => 299x9 = 2691 (*) Diferença SQR/GLR

Total (tb - 1) => (300x10)-1 = 2999 ∑ x² - C

GL = Graus de liberdade; SQ = Soma de quadrados; QM = Quadrado médio; F = Teste F.

(*) = Vem de (tb-1)-(t-1)-(b-1). Para facilitar os cálculos geralmente é obtida por diferença.

t = número de tratamentos; b = número de blocos; T = total de cada tratamento; B = total de cada bloco.

= [(∑ x)²]/RT

Mesmo problema da outra situaçã, em que o fatorial é reconhecido na descrição, mas não na análise 0,25

12. [] (IP:281473660056925 | 07:03:59 | 23:19:02 | 15:03 | 0.984)

Discuta as implicações da aditividade.

A aditividade ou efeito aditivo possibilita a distinção entre o que é efeito do acaso do que é efeito do

tratamento devido a independência que lhes confere. Assim o efeito do acaso não interfere no efeito do

tratamento, permitindo a análise dos resultados de modo a saber a origem dos efeitos observados. Caso fosse

multiplicativa, não teria como distinguir efeito do acaso de efeito do tratamento.

A aditividade é um requisito do modelo linear generalizado, dada a separação dos efeitos, consegue-se

observar se o resultado foi devido aos tratamentos quando F CAL. > F TAB. ou devido ao acaso quando F

CAL. < FTAB.

Ok, mas não tenho ideia de onde apareceu o teste F nesta história

13. [] (IP:281473660056925 | 07:04:29 | 23:52:08 | 47:39 | 8.796)

Descreva situações em que o uso da multivariada seria interessante em trabalhos de

experimentação.

Nas determinações químicas de um experimento em campo serão avaliados, pH, Ca, Mg, K, P, C org., CTC,

Zn, Cu, Mo, S, para avaliar o nível da fertilidade do solo. Assim o uso da multivariada seria interessante,

pois todas essas análises será avaliada em apenas um teste, reduzindo o número dos testes a serem

realizados, e evitando o erro cumulativo no caso se fosse utilizado a univariada.

Nas determinações físicas de um experimento em laboratório serão avaliados, Ds, Dp, P, Macroporosidade,

Microporidade, Curva de retenção de água no solo, Resistência a penetração. Da mesma forma o uso de

multivariada é interessante pois essas análises serão reduzidas a utilização de um teste, evitando a chance de

ocorrência do erro tipo I, devido a redução do número de testes executados em comparação com a

univariada.

Com multivariada são analisadas várias variáveis simultaneamente. Com a redução do número de testes

realizados, reduzindo assim o número de chance de ocorrer o erro tipo I.

Ok, nestas duas situações poderíamos usar a multivariada sim. No entanto, como seria o uso desta técnica

nas duas situações? Que informações poderíamos ganhar? 0,5

14. [] (IP:281473660056925 | 07:04:52 | 23:20:33 | 15:41 | 0.948)

Discuta diferentes critérios para seleção da melhor regressão linear múltipla.

Na seleção de técnicas dos modelos podem ocorrer aumento na chance de cometer o erro tipo I, o que não é

bom, pois caso isso ocorra estará afirmando que existe diferença nos tratamentos, quando na realidade não

existe essa diferença na população, isto sendo provocado pela má seleção do modelo. Ao avaliar um modelo

visa-se observar se os parâmetros estimados são ou não estatisticamente significativos e satisfatórios. Os

critérios estatísticos avaliados nos modelos têm por finalidade observar o grau de confiabilidade das

estimativas obtidas. O critério para seleção da regressão linear múltipla (RLM), refere-se ao fator escolhido

para comparação dos modelos de regressão e desta forma escolher o melhor modelo. O critério para seleção

possibilita encontrar quais as variáveis entram no modelo de regressão, para avaliar um conjunto de dados a

ser feito as regressões.

No caso de RLM o primeiro e mais importante critério a ser observado é o R² corrigido/ajustado, pois este

leva em consideração o número de variáveis adicionadas ao modelo. Se for observado apenas o R², quanto

mais variáveis for adicionado no modelo, maior o R², entretanto, isso não implica em maior ganho de

informação, pois a pessoa pode estar colocando variáveis que pouco contribuem, que pouco fornece

informações utéis. O importante é olhar o R² corrigido, pois este dá uma ideia da proporção de variação de Y

(variável dependente) explicada pelo modelo de regressão, além de levar em consideração o número de

variáveis adicionadas. Este vai explicar bem o que esta acontecendo, e levará em consideração as variáveis

que são colocadas no modelo, deve-se optar pelo maior R² corrigido, com o menor número de variáveis,

onde, estes devem explicar melhor o máximo da variação. Quanto menos variáveis, e se, elas explicam tão

bem quanto modelos com o mesmo R² ajustado só que com mais variáveis, economiza-se tempo e facilita a

interpretação dos resultados.

Existe ainda o coeficiente de correlação (R), o valor de F e coeficiente de determinação (R2). O coeficiente

de correlação (R) é uma medida da relação linear entre duas ou mais variáveis, que indica a proximidade dos

pontos a reta de regressão, e quanto mais próximo de 1,0 for o valor de R, mais os pontos se encontram na

reta de regressão. E o teste F dá uma ideia da relação entre a variação devida ao resíduo e ao acaso.

Ok 1

15. [] (IP:281473660056925 | 07:05:44 | 23:21:25 | 15:41 | 0.539)

Discuta possíveis vantagens e desvantagens do uso de regressão na ciência do solo. Detalhe em

particular cuidados que devemos tomar em sua interpretação.

A vantagem da regressão na área de fertilidade do solo, é que através de sua utilização poderá ser obtido

valores não aplicados, mas que correspondem a doses procuradas (agronômicas e/ou econômicas, por

exemplo no caso de adubação) dado a interpolação dos valores. Possibilita a visualização de algo, que de

outra maneira não seriam visualizado. A desvantagem é que não pode extrapolar esses valores obtidos para

outras condições, nem para faixas que estão fora das estudadas. Exemplificando uma vantagem: Supondo

que em um experimento, conduzido no município de Petrolina-PE, em que se deseja obter a dose econômica

de adubo por hectare na produção de tomate, utilizando doses de 0-20-30-40-50-80-100 kg de adubo. A

produtividade máxima foi alcançada com 68,5 kg de adubo por hectare. Essa dose de 68,5 kg de adubo, não

foi colocada no experimento, entretanto esse valor foi obtido devido a interpolação dos valores na equação

da regressão. Exemplificando uma desvantagem: No caso do mesmo exemplo acima citado, é que não se

pode dizer que para as condições do município de Garanhuns-PE, a dose econômica seja de 68,5 kg de

adubo. Caso admita-se a mesma regressão para o município de Garanhuns, estará se cometendo a

extrapolação, ocasionando erros. Mesmo sendo municípios do mesmo estado as condições são distintas.

A vantagem na área de microbiologia do solo é que poderá ser obtido através dessa modelagem, parâmetros

passiveis de interpretação biológica (utilizando modelos não lineares) que permite ao pesquisador entender

melhor os processos. A desvantagem é que nem todo modelo de regressão se enquadra no caso de estudo.

Exemplificando: Em um estudo de decomposição de diferentes materiais vegetais em função do tempo, para

saber como ocorre essa decomposição, deve-se utilizar modelos não lineares (mais comum, exponenciais),

pois estes são bons descritores dos fenômenos biológicos. Caso se utilize modelos de regressão lineares ou

polinomiais, isto implica em erros, o resultado e consequentemente a interpretação estará equivocada, pois

estes modelos não representam bem os parâmetros biológicos. Praticamente nunca o pesquisador encontrará

fenômenos biológicos que possam ser explicados por uma reta (regressão linear), pois na natureza ganhos

sempre crescentes não são comuns. Para determinadas faixas de valores até pode ser usada, mas apenas para

uma dada faixa de valores.

No caso da área de Gênese e morfologia de solos pode-se utilizar a regressão, entretanto com menor

exigência matemática, devido as suas características inerentes, existe muitos fatores influenciando, dos quais

o pesquisador tem pouco controle. Já em um experimento (na área de fertilidade), existe um maior e melhor

controle dos efeitos, refletindo assim em maiores correlações. Mesmo que as correlações sejam baixas (área

de gênese), em comparação a um experimento (área de fertilidade) já se considera um ganho, pois são tantos

fatores que não se pode controlar, que a variabilidade dos dois ficam altos. O solo é função dos fatores de

formação (relevo, tempo, organismos vivos, clima, material de origem), dada essa complexidade de

relações, a variabilidade tende a ser grande.

Os principais erros no uso de regressão são cometidos devido ao uso indevido. Usa-se quando não deveria

ser usada, ou usa-se um modelo não adequado para determinada situação. A estatística é uma ferramenta e

cabe a quem esta utilizando-a saber usá-la, e saber extrair informações. O pesquisador tem que ter grande

embasamento teórico, bem como, saber que modelos usar, o porque, suas causas e implicações, e saber se

são compatíveis com a finalidade do estudo.

Ok 1

16. [] (IP:281473660056925 | 07:06:05 | 23:22:59 | 16:54 | 93.544)

Podemos esperar o mesmo grau de eficiência dos diferentes tipos de fatorial?

Não. Comparando-se o fatorial (fatores e níveis) com o fatorial em parcela subdividida (parcela principal e

subparcela), o fatorial é mais preciso que a parcela subdividida, O fatorial possui maior número de

repetições. Logo é mais eficiente que a parcela subdividida na maioria das situações. Entretanto, em casos

específicos a parcela subdivida pode apresentar alta/melhor eficiência. De modo geral, o fatorial é melhor

que a parcela subdividida, por esta ser menos precisa estatisticamente que o fatorial, entretanto em alguns

casos pode trazer ganhos como redução de custo, redução de área, mão-de-obra, em experimentos. Só em

casos em que há ganhos do ponto de vista operacional/prático, é que há uma compensação dessa perda

estatística, compensando assim seu uso, sendo nesses casos eficientes desde que sabendo-se utilizar na

situação em que realmente esta acarretará ganhos.

De onde apareceu que o fatorial tem maior número de repetições, pelamordedeus? Em momento algum

mencionou que a razão para a preferência pelo fatorial simples na maioria dos casos é pela divisão da

variação do acaso em mais de um componente na parcela subdividida. 0,5

17. [] (IP:281473660056925 | 07:06:30 | 23:23:49 | 17:19 | 38.143)

Discuta a afirmativa: "No caso de uma interação, não devemos analisar qualquer efeito

principal."

Correto. Só devemos analisar o efeito principal dos fatores que não estão envolvidos na interação

significativa. Quando ocorre interação significativa, o efeito principal dos fatores que estão nela envolvidos

não precisam ser analisados/discutidos, já que com a interação terár-se qual o melhor nível em determinado

fator, assim não faz sentido discutir o efeito principal. Quando a interação é não significativa, discute-se

apenas os efeitos principais. O efeito principal trata-se do efeito de cada fator como se fosse o único efeito

sendo estudado no experimento.

Na realidade não devemos analisar qualquer efeito principal ENVOLVIDO na interação. Quem não está

envolvido deve continuar a ser estudado do mesmo jeito de sempre… 0,75

18. [] (IP:281473660056925 | 07:07:11 | 23:24:19 | 17:08 | 27.05)

Quais são os principais critérios para avaliar a qualidade de uma amostragem?

O primeiro é definir o objetivo do estudo, pois este delimitará o que será estudado, outro ponto é em campo

verificar as condições ambientais (relevo, vegetação, tipo de solo, entre outros), observando-se as áreas,

defini-se o tamanho e a quantidade das amostras, que devem ser representativas e coletadas aleatoriamente,

além de serem muitas amostras (repetições). Assim, seguindo-se tais passos/critérios poderá obter-se uma

amostragem de qualidade. Para determinar o número de amostras, a princípio seleciona-se a quantidade de

amostras retiradas da área com base nos valores de literatura, posteriormente procede-se a coleta, e a partir

dessas coletas poderá obter-se a variância da área, e com a fórmula definir o número de amostras com bases

mais científica.

Passável 1

19. [] (IP:281473660056925 | 07:07:30 | 23:24:46 | 17:16 | 23.016)

Diferencie interação e efeito principal.

Efeito principal refere-se ao efeito de cada fator como se fosse o único efeito sendo estudado no

experimento, já a interação refere-se a como os fatores interferem um na resposta do outro. O fatorial deriva

do MLG, e os efeitos dos tratamentos no fatorial são designados pelo efeito principal (fatores) e interações.

A medição do efeito principal é dado pelo total de seus efeitos considerados sobre todos os outros fatores e

repetições. A medição da interação é dada pelo total das combinações dos fatores em consideração sobre

todos os outros fatores e repetições e dessa forma sucessivamente até a interação de todos os fatores em

estudo.

Ok 1

20. [] (IP:281473660056925 | 07:07:51 | 23:26:31 | 18:40 | 0.918)

Crie uma situação experimental para o uso do delineamento em quadrado latino no campo da

agronomia. Justifique.

Mesmo não sendo tão comuns na prática em agronomia, devido as restrições do delineamento. O

delineamento em quadrado latino é utilizado quando deseja-se controlar duas causas de variação.

Apresentam dois tipos de blocos, blocos em “coluna” e em “linhas”, os tratamentos são sorteados, e cada

tratamento só deve aparecer uma vez em cada “coluna” e uma vez em cada “linha”. Será conduzido um

experimento em campo avaliando o desenvolvimento vegetal da espécie Guazuma ulmifolia, visando

controlar variações decorrentes do tipo de solo e do lado preferencial dos ventos.

As plantas serão dispostas na área. Na horizontal os ventos são intensos, e na vertical existem faixas de solos

diferentes (Latossolo, Argissolo, Neossolo). Será utilizado o delineamento em quadrado latino, pois existe

variação a ser controlada tanto na linha quanto na coluna e o QL possibilita esse controle.

Ok 1

21. [] (IP:281473660056925 | 07:08:12 | 23:37:52 | 29:40 | 0.896)

Um experimento vai ser conduzido no campo avaliando 100 novos clones de palma forrageira

com adubação orgânica, mineral ou uma combinação, com duas repetições.Indique arranjo e

delineamento mais adequados, justifique e determine as fontes de variação e graus de

liberdade. Use tab para separar as colunas

Delineamento em blocos casualisados devido o campo ser um ambiente heterogêneo, existe variação quanto

ao solo, temperatura, umidade, entre outros fatores ambientais.

O arranjamento será em parcela subdividida, tendo o clone como parcela principal e as adubações como

subparcelas. Usando-se a parcela subdividida (PS) terá ganho operacional, mesmo a PS sendo menos precisa

estatisticamente que o fatorial o ganho operacional compensa essa perda estatística.

Fontes de variação GL SQ QM F

Tratamentos (t - 1) => 300-1 = 299 (∑ T²/b) – C SQT/GLT QMT/QMR

Blocos (b - 1) => 10-1 = 9 (∑ B²/t) – C SQB/GLB

Resíduo 2999-299-9 = 2891 Diferença SQR/GLR

Parcela (300x10) – 1 = 2999

Total (tb - 1) => (300x10)-1 = 2999 ∑ x² - C

GL = Graus de liberdade; SQ = Soma de quadrados; QM = Quadrado médio; F = Teste F.

t = número de tratamentos; b = número de blocos; T = total de cada tratamento; B = total de cada bloco.

= [(∑ x)²]/rt

É a segunda resposta a esta situação que usa exatamente o mesmo esquema, embora ele não seja

particularmente lógico. Neste caso em particular, para piorar, o esquema de análise não bate com a descrição

feita de parcela subdividida 0

22. [] (IP:281473660056925 | 07:08:35 | 23:38:24 | 29:49 | 31.548)

Discuta a afirmativa: "Quando uma interação é significativa, podemos dizer qual o melhor

nível de um fator".

Não. Quando a interação é significativa, esta só terá importância se associada com outro nível do fator, se

não existir interação o melhor nível seria o do fator principal.

Não tenho a menor ideia do que tentou dizer. Suspeito que quer dizer que só podemos definir o melhor nível

de um fator para um determinado nível do outro, mas se fosse para adivinhar era melhor acertar os números

da megasena 0