Planeamento Experiências

Page 1

-0-

PLANEAMENTO DE EXPERIÊNCIAS E INVESTIGAÇÃO DOE VOL 1 Edições UAB

Novembro 2012

Carla Noronha; Fernando Correia; Jorge Xavier; Maria Marques; Paula Barroso


Pág.1

1 – Introdução Este trabalho foi realizado no âmbito da Unidade Curricular Planeamento de Experiências e Investigação, integrado na 1ª edição do mestrado em Bioestatística e Biometria, da Universidade Aberta. Os objectivos a que nos propomos são fazer uma breve resenha histórica e percorrer de forma sucinta as técnicas e modelos do Planeamento de Experiências. Depois de uma primeira fase em que foram efetuadas investigações e pesquisa exaustiva sobre o tema, o grupo trabalhou num fórum criado pela docente, tendo no final elaborado este trabalho, que foi estruturado com vista a responder às competências que se pretendiam desenvolver relativamente ao tema proposto. Assim faremos uma breve abordagem à história do Planeamento de Experiências e os seus principais campos de aplicação. Dada a sua importância será feita uma análise do impacto que o Planeamento de Experiências tem tido no desenvolvimento das outras ciências, mostrando-se a sua aplicabilidade em alguns estudos realizados. Não querendo nem podendo fazer uma exposição exaustiva, iremos focar trabalhos em várias áreas distintas, salientando-se a Genética, Botânica, Indústria e Engenharia Química. Para contextualizar este tema, tivemos que investigar os fundamentos e as generalidades das técnicas usadas, assim com os vários tipos de planeamentos experimentais. Dedicaremos uma grande parte do trabalho à Estatística utilizada nos diversos estudos e experiências, salientando-se os Teste F e os pressupostos e as técnicas da ANOVA. Por fim será feito um comentário sobre a pertinência dos sites escolhidos pelos elementos do grupo. Esperamos que este trabalho atinja o fim a que nos propomos e também que se abra uma janela de oportunidade na perspectiva de investigações futuras sobre o tema.

2 - História e primeiros campos de aplicação Nem sempre a ciência recorreu a este processo como forma de alargar o conhecimento sobre determinado assunto. O conceito atual de experiência como método de pesquisa científica é recente. A evolução do método experimental foi paulatina e lenta, até chegar aos dias atuais. Pensamos que é de facto interessante compreender como foi que a ciência evoluiu neste sentido. O que pensariam os cientistas ao longo dos séculos até sentirem haver necessidade de estruturar os seus estudos de forma cuidada e percorrer uma série de etapas que hoje todos conhecemos fazerem parte de um verdadeiro planeamento. Os marcos dessa evolução e as contribuições mais relevantes podem ser resumidos da seguinte forma: Séc. II a.C No século II antes de Cristo, o astrónomo e matemático Cláudio Ptolomeu de Alexandria, desenvolveu uma teoria do universo a partir das ideias de Aristóteles. Através de argumentos geográficos, Ptolomeu afirmou que a terra era uma esfera e, sendo imóvel, devia ser o centro do universo, porque, se assim não fosse, o ar mais leve seria deixado para trás, por causa de sua aceleração mais lenta. Essas teorias foram aceites sem controvérsia e assim permaneceram até a Idade Média. Séc V a.C Aristóteles (384-322 a.C.) fez diversas descobertas referentes ao mundo natural. Com base em experiências, axiomas e argumentos filosóficos, Aristóteles concluiu, por exemplo, que a aceleração de um corpo em queda livre depende da sua massa, e que a terra devia ser uma esfera, já que a esfera é o sólido mais "perfeito" existente. Séc. XVI A origem da pesquisa experimental é frequentemente atribuída ao filósofo inglês Francis Bacon (1561-1626), no século XVII. Bacon sustentou que o ponto de partida de toda ciência devem ser factos observados empiricamente e que toda teoria é confiável na medida em que seja derivada desses factos.


Pág.2 O matemático, astrónomo e físico florentino Galileu Galilei (1564-1642) também é considerado um dos fundadores do método experimental. Séc. XVII Outras contribuições importantes para o método experimental tiveram origem nos séculos XVII e XVIII, principalmente com as obras do matemático e filósofo francês René Descartes (1596-1650), do físico e matemático inglês Isaac Newton (1642-1727) e do cientista francês Antoine-Laurent de Lavoisier (1743-1794). A consolidação do método experimental também teve a influência relevante do trabalho do renomado médico e fisiologista francês Claude Bernard (1813-1878), que consolidou sua obra em seu célebre livro "Introduction à la médicine expérimentale". Séc. XVIII O desenvolvimento da experimentação agrícola teve início no final do século XVIII, na época do desenvolvimento agrícola, originado pela revolução industrial e pela necessidade de alimentar uma população urbana em rápido crescimento. A química estava no início da sua forma moderna e já era reconhecida a sua importância para a compreensão da nutrição e do crescimento de plantas. Foram criadas cadeiras de agricultura em Oxford, Inglaterra, em 1790, e em Edimburgo, Escócia, em 1797. Na Alemanha, o renomado químico agrícola Justus von Liebig (1803-1873) foi nomeado Professor de Química da Universidade de Giessen, em 1824. Dessa forma, a agricultura, com uma base firme em química, tornou-se aceite como uma área académica. A origem da ciência moderna da genética aplicada à agricultura é creditada aos trabalhos experimentais de cruzamentos com ervilha desenvolvidos pelo monge austríaco Johann Gregor Mendel (1822-1884). A hoje conhecida "teoria mendeliana da herança" foi apresentada em seu artigo "Experiments with plant hybrids", publicado em 1866. Séc. XIX Em Inglaterra, John Bennet Lawes (1814-1900) após a morte de seu pai, em 1834,decidiu interromper seus estudos de química em Oxford e dirigir suas propriedades em Rothamstead. Obteve condições para trabalhar nos laboratórios de química do Colégio da Universidade de Londres e, em seguida, instalou um laboratório em Rothamstead, onde iniciou experiências com fertilizantes de superfosfato derivado de ossos e de fosfatos minerais. Foi no séc. XIX que Lawes obteve a patente para a produção do superfosfatos e iniciou a primeira indústria de fertilizantes. Em 1843, Lawes associou-se ao químico inglês Joseph Henry Gilbert (1817-1901). Em 1843, Lawes e Gilbert fundaram, em Rothamstead, a primeira estação experimental agrícola organizada do mundo. Até 1900, durante mais de meio século, esses dois cientistas trabalharam juntos em pesquisa experimental em nutrição de plantas e de animais, tornando o trabalho de Rothamstead famoso em todo o mundo. Pela importância desse trabalho, Lawes e Gilbert têm sido referidos como os pais do método científico na agricultura. É óbvio que as primeiras experiências conduzidas em Rothamstead não teriam sido aceites hoje, pois não adotavam os princípios fundamentais do Planeamento Experimental, ou seja, casualização, repetição e controle local. Isso apesar da necessidade da repetição já ser reconhecida na metade do século passado. Para além disso, embora os tratamentos de algumas dessas experiências revelem aparência de estrutura fatorial, os níveis e as combinações de níveis são muito irregulares. Mesmo com as suas imperfeições, essas experiências foram valiosas como ponto de partida para o desenvolvimento da pesquisa experimental. Os planeamentos experimentais sistemáticos têm uma longa história em agricultura. Séc. XX Quadrados latinos sistemáticos foram usados na Alemanha e na França no século XIX, e várias formas de esquemas de rede, especialmente esquemas baseados no movimento do rei em xadrez, foram usados na Escandinávia no último quarto do século XIX. Esses planeamentos reconhecem, claramente, a necessidade da repetição e de alguma forma de equilíbrio. No início de 1900, foram criados departamentos de agricultura em diversas universidades e colégios, e foram fundadas novas instituições de pesquisa agrícola, principalmente em Inglaterra e nos Estados Unidos.


O Pai da Estatística – Fisher

Pág.3

No ambiente propiciado por Rothamstead, Fisher conseguiu a aplicação prática de sua teoria da inferência estatística e alcançou conclusões relevantes para a pesquisa científica. Uma dessas conclusões é que a quantidade de informação gerada pelas inferências de uma pesquisa não pode ser maior do que a contida nos dados. Consequentemente, o processo de geração dos dados e, particularmente, o planeamento da pesquisa, passaram a assumir importância fundamental. Fisher compreendeu logo que, enquanto o mais elaborado procedimento estatístico de análise de dados poderia incrementar a precisão de uma experiência em alguns pontos percentuais, um plano experimental mais apropriado, envolvendo praticamente o mesmo esforço, podia aumentar a precisão em dobro ou muitas vezes mais, podendo, além disso, fornecer informação adicional sobre questões suplementares importantes. Ao fim dos 14 anos de trabalho na pesquisa agrícola, as ideias de Fisher já eram reconhecidas e sua metodologia moderna do planeamento e análise de experiências estava em pleno uso. Fisher enfatizou o papel fundamental da repetição como uma base para a estimação do erro e por consequência para a avaliação da evidência em favor da realidade dos efeitos. Lançou a noção inovadora da casualização e elaborou várias formas de delineamentos casualizados, particularmente o planeamento em blocos casualizados, que se tornaram de uso comum em experiências agrícolas de campo. Fisher também salientou a importância de experiências fatoriais, argumentando que a natureza prefere responder questões propostas conjuntamente em vez de questões isoladas. A sua contribuição mais relevante para a pesquisa experimental foi condensada no seu segundo livro, "The design of experiments", publicado em 1935. As principais características da abordagem introduzida por Fisher são as seguintes: • Requisito que a própria experiência forneça uma estimativa da variabilidade atribuível a características estranhas a que estão sujeitas as respostas aos tratamentos; • Uso da repetição para prover essa estimativa da variabilidade e da casualização para lograr sua validade; • Uso do controle local com o propósito de controlar e reduzir essa fonte de variação estranha; • Princípio de que a análise estatística dos resultados é determinada pelo modo como a experiência é conduzida; • Conceito de experiência fatorial, ou seja, da pesquisa dos efeitos de duas ou mais características explanatórias numa única experiência, em vez de uma única experiência para cada uma dessas características. O trabalho de Fisher em Rothamstead teve uma extraordinária influência no desenvolvimento da metodologia da pesquisa experimental e da estatística em todo o mundo. Frank Yates (1902-1994) juntou-se à equipe de Fisher em 1931 e o sucedeu em 1933. Yates continuou a construir as ideias de Fisher, notadamente no desenvolvimento de esquemas fatoriais com o planeamento em blocos incompletos e reticulados, que se tornaram especialmente valiosos em experiências de melhoramento genético de plantas e em situações em que o tamanho do bloco é necessariamente limitado. Muitas outras contribuições relevantes para a experimentação agrícola foram originadas da escola de Fisher, em Rothamstead, na década de 30, principalmente através de Frank Yates, John Wishart (1898-1956) e William Cochran (1909-1980). A metodologia moderna da pesquisa experimental, desenvolvida a partir dos fundamentos e ideias lançados por Fisher para a pesquisa agrícola, teve muitos contribuintes em diversos países e passou a aplicarse aos demais ramos da ciência e da tecnologia, tais como biologia, medicina, engenharia, indústria e ciências sociais. Os desenvolvimentos científicos e tecnológicos nas diversas áreas exigiram, por sua vez, novas metodologias particulares que também se tornaram, em geral, aplicáveis às demais áreas. Como consequência da origem da pesquisa experimental na agricultura, muito da terminologia ainda hoje utilizada compreende termos próprios da pesquisa agrícola. Assim, por exemplo, as designações "tratamento", "parcela" e "bloco" perderam suas conotações particulares da agricultura e são amplamente usadas na pesquisa experimental em muitas áreas da ciência.

2 - Impacto no desenvolvimento das outras ciências A ciência é um processo lógico de investigação para a solução de problemas e a busca de respostas a questões referentes a fenómenos naturais. Através do método científico, os cientistas tentam a geração de um corpo de conhecimento livre de crenças, perceções, valores, atitudes e emoções pessoais. Isso é logrado através de verificação empírica de ideias e crenças por procedimento aberto à inspeção pública. A confiabilidade do conhecimento científico deriva de sua base em evidência provida por observação objetiva.


Pág.4 O conhecimento científico não é um conhecimento absoluto e definitivo. Pelo contrário, ele tende a aperfeiçoar-se e, em consequência, levar, por exemplo, à criação de novos métodos, técnicas e procedimentos mais adequados e convenientes. Esse progresso é conseguido através da permanente atividade de indagação a que se dedicam os pesquisadores. Assim, a ciência é uma fonte de geração de conhecimento que se renova para solucionar problemas, responder questões, e desenvolver procedimentos mais efetivos para solucionar problemas e responder a questões. O planeamento de experiências tem aplicações na Medicina. Se antigamente se aceitava práticas empíricas, baseadas em práticas tradicionais, hoje, com a constante diminuição dos recursos económicos, são necessários métodos que permitam rapidamente estabelecer protocolos de tratamentos de patologias, bem como a utilização racional de fármacos. Entenda-se a utilização racional de fármacos como sendo a forma de tratar doenças de maneira correta e com o menor custo possível. É aqui que entra o planeamento de experiências pelo conjunto de ferramentas que aporta quer à estruturação das experiências quer ao tratamento dos dados obtidos. Serão exemplos, os inúmeros trabalhos na área do tratamento da hipertensão arterial, face aos riscos de morte súbita e às sequelas que podem deixar os AVC, e os custos astronómicos com os fármacos que são utilizados no seu tratamento. Tem aplicações na indústria, em especial na criação de novos produtos a partir de produtos já existentes, bem como no controlo da qualidade de fabrico dos mesmos. A constante procura de produzir ao mais baixo custo sem afetação da sua qualidade, necessita de usar os procedimentos e técnicas que o planeamento de experiências criou. Serão exemplos, os inúmeros trabalhos na área da qualidade das embalagens para alimentos congelados, na utilização de máquinas de corte, etc. Tem aplicações na agricultura, com o constante aumento da população mundial e os recursos não serem inesgotáveis, é urgente encontrar novos métodos de produção agrícola que sejam facilmente implementados e que levem ao aumento das culturas. Nestes tempos conturbados em que existem milhões de pessoas em todo o mundo que morrem à fome ou estão subnutridos, leva-nos à produção cada vez maior de produtos alimentares mas deparamo-nos com um problema, os terrenos, a água etc., não são ilimitados. Isto leva-nos a descobrir novas maneiras de rentabilizar os recursos disponíveis, como o uso racional de pesticidas, da água para rega, a rotatividade dos solos, etc. Tudo isto utiliza os conhecimentos do planeamento de experiências. Tem aplicações nas ciências sociais, como a sociologia. Através de inquéritos e sondagens, permitem um conhecimento cada vez maior sobre as populações e a sua forma de pensar. Permitem também influenciar de alguma forma, comportamentos futuros das mesmas. Em resumo, não há certamente nenhuma área do conhecimento científico e tecnológico atual, que não utilize de alguma forma, todas os procedimentos e ferramentas do planeamento de experiências, pela forma rápida como permite a organização e interpretação dos resultados obtidos. Foi certamente e é com certeza, um dos fatores que permitiu e permite a rápida evolução tecnológica dos nossos dias. Nunca as populações humanas evoluíram tanto e em tão pouco tempo como nos dias de hoje. O progresso tecnológico e científico evolui a um ritmo alucinante nunca antes visto.

Diagrama que ilustra o método científico


Pág.5 Questões naturais dizem respeito ao domínio de conhecimento do método estatístico que os pesquisadores nas diversas áreas devem possuir para que possam cumprir suas funções apropriadamente, à demanda de especialistas em estatística nas equipas multidisciplinares de pesquisa, e à organização institucional dessas equipas. Para que possam ser eficazes no cumprimento de suas responsabilidades, essas equipas têm que ter o domínio do conhecimento de sua área de atuação. No que diz respeito à estatística, em particular, devem ter condições e capacidade para utilizar os métodos estatísticos mais modernos e apropriados para cada situação particular, incluindo o uso dos recursos exigidos para a implementação desses métodos, como os recursos de computação. Os pesquisadores especialistas das diversas áreas de pesquisa devem ter domínio de conhecimento da metodologia da pesquisa científica que seja indispensável para a compreensão e a tomada de decisões e de ações referentes aos aspetos usuais do planeamento e da condução das pesquisas sob suas responsabilidades, e para a execução da análise, interpretação e difusão de seus resultados. Esse domínio de conhecimentos deve abranger os métodos estatísticos e os recursos de computação estatística, incluindo os "pacotes" para análise estatística. Cabe aos especialistas em estatística a complementação do domínio de conhecimento das equipas de pesquisa, com o conhecimento dos métodos mais sofisticados que demandem capacitação especializada e que requeiram base teórica mais avançada em matemática e estatística. Também compete ao estatístico a capacitação para a execução de estudos e pesquisas visando a adaptação e o desenvolvimento de novos métodos e técnicas.

3 - Exemplos de aplicação na resolução de problemas recentes em diversas áreas. Enquanto que o objetivo de uma sondagem é o de recolher informação acerca de uma população selecionando e observando uma amostra da população tal qual ela se apresenta, pelo contrário, uma experimentação impõe um tratamento às unidades experimentais com o fim de observar a resposta. O princípio base de uma experimentação é o método da comparação, em que se comparam os resultados obtidos na variável resposta de um grupo de tratamento com um grupo de controlo. Exemplo (Moore, 1997) – Será que a aspirina reduz o perigo de um ataque cardíaco? O estudo conhecido por Physicians’ Health Study, foi uma experimentação médica levada a cabo com o objetivo de responder a esta questão específica. Metade de um grupo de 22000 médicos (homens) foram escolhidos aleatoriamente para tomar uma aspirina todos os dias. A outra metade dos médicos tomou um placebo, que tinha o mesmo aspeto e sabor da aspirina. Depois de vários anos 239 médicos do grupo que tomou placebo, contra 139 do grupo que tomou aspirina, tiveram ataques cardíacos. Esta diferença é suficientemente grande para evidenciar o efeito da aspirina na prevenção dos ataques cardíacos. Unidades experimentais, tratamento, variável resposta, variáveis explanatórias. Unidades experimentais são os objetos sobre os quais incide a experimentação e a quem é aplicado uma condição experimental específica, a que chamamos tratamento. Variável resposta é a variável cujo comportamento pretendemos estudar. As variáveis explanatórias são as variáveis que explicam ou causam mudanças na variável resposta. No estudo considerado anteriormente temos: • Unidades experimentais – 22000 médicos• Tratamentos – aspirina ou placebo • Variável explanatória – se o indivíduo tomou aspirina ou placebo • Variável resposta – se o indivíduo teve ou não ataque cardíaco. Sem a comparação de tratamentos os resultados de experimentações em medicina e em ciências do comportamento, duas áreas onde estes métodos são largamente utilizados, poderiam ser muito influenciados pela seleção dos indivíduos, o efeito do placebo, etc. O resultado poderia vir enviesado. Um estudo não controlado de uma nova terapia médica é quase sempre enviesado no sentido de dar ao tratamento um maior sucesso do que ele tem na realidade (efeito placebo).


Pág.6 Exemplo (Moore, 1997) - Um tratamento utilizado durante vários anos para tratar úlceras do estômago consistia em pôr o doente a aspirar, durante uma hora, uma solução refrigerada que era bombeada para dentro de um balão. Segundo o Journal of the American Medical Association, uma experimentação levada a efeito com este tratamento permitiu concluir que o arrefecimento gástrico reduzia a secreção de ácido, diminuindo a propensão para as úlceras. No entanto, veio-se a verificar mais tarde com um planeamento adequado, que a resposta dos doentes ao tratamento foi influenciada pelo efeito placebo – efeito confounding. O que acontece é que há doentes que respondem favoravelmente a qualquer tratamento, mesmo que seja um placebo, possivelmente pela confiança que depositam no médico e pelas expectativas de cura que depositam no tratamento. Num planeamento adequado feito anos mais tarde, um grupo de doentes com úlcera foi dividido em dois grupos, tratando-se um com a solução refrigerada e o outro grupo com um placebo, constituído por uma solução à temperatura ambiente. Os resultados desta experimentação permitiram concluir que dos 82 doentes sujeitos à solução refrigerada - grupo de tratamento, 34% apresentaram melhoras, enquanto que dos 78 doentes que receberam o placebo - grupo de controlo, 38% apresentaram melhoras. Num planeamento experimental, uma vez identificadas as variáveis e estabelecido o protocolo dos tratamentos, seguese uma segunda fase que consiste na atribuição de cada unidade experimental a um tratamento. Esta segunda fase deve ser regida pelo princípio da aleatoriedade. Este princípio tem como objetivo fazer com que os grupos que vão ser comparados, tenham à partida constituição semelhante, de forma que as diferenças observadas na variável resposta possam ser atribuídas aos efeitos dos tratamentos. Assim, a atribuição de cada indivíduo ao grupo de tratamento ou de controlo é feita de forma aleatória. Combinando a comparação com a aleatoriedade, podemos esquematizar da seguinte forma o tipo de planeamento mais simples:

Ao comparar os resultados temos de ter presente que haverá sempre alguma diferença que se tem de atribuir ao facto de os grupos não serem perfeitamente idênticos e algumas diferenças que se atribuem ao acaso. O que se pretende é averiguar se as diferenças encontradas não serão "demasiado grandes" para que se possam atribuir a essas causas, ou seja, verificar se não tendo em linha de conta a diferença entre os tratamentos, a probabilidade de obter as diferenças observadas não seria extremamente pequena. Se efectivamente esta probabilidade for inferior a um determinado valor (de que falaremos mais tarde) dizemos que a diferença é estatisticamente significativa, sendo de admitir que foi provocada pelos diferentes tratamentos. Convém ainda observar que numa experimentação os indivíduos selecionados para cada grupo não devem saber qual o tipo de tratamento a que estão a ser sujeitos, nem o investigador que está a conduzir a experimentação e a medir os resultados deve saber qual o tipo de tratamento que cada indivíduo seguiu. Temos o que se chama uma experimentação duplamente cega. Esta precaução é uma forma de evitar o enviesamento, quer nas respostas, quer nas medições (um médico ao observar o efeito de um tratamento que provoque, por exemplo, uma mancha vermelha na pele, pode estar condicionado na interpretação da gravidade dessa mancha se souber qual o tratamento a que o doente foi sujeito). Em muitas situações os investigadores têm de se cingir aos estudos observáveis, já que não é possível conduzir uma experimentação controlada. Por exemplo, para estudar o efeito do tabaco no cancro do pulmão, o investigador limita-se a observar grupos de indivíduos que fumam ou não, não podendo ser ele próprio a selecionar um conjunto de indivíduos e depois pô-los aleatoriamente a fumar tabaco ou um placebo. Seria sempre muito difícil conseguirmos transmitir neste trabalho a grandiosidade da abrangência do Planeamento de Experiências em tantas, tantas áreas das diversas ciências. Desta forma, achámos por bem apresentar uma síntese destas aplicações , mostrando alguns estudos que destacamos pela sua relevância. Esses exemplos encontram-se esquematizados no quadro seguinte:


Pág.7

Área de Estudos

Link

Descrição

Este trabalho demonstra uma aplicação do planeamento de experiencias no processo de fabrico de fibra de placas de madeira e da melhoria de qualidade deste produto. http://ambientes.ambientebrasil.com.br/ A engenharia genética, uma nova ciência que tem Genética biotecnologia/artigos_de_biotecnologia/engenh possibilitado a realização de experimentos na área da aria_genetica_(a_ciencia_da_vida).html genética, com resultados surpreendentes sobre a vida http://www.usgs.gov/blogs/features/usgs_scien Como o clima aqueceu, muitas plantas estão a ce_pick/experiments-underestimate-climatecomeçar a crescer folhas e a florescem mais cedo. Um Botânica change-impacts-to-plants/ novo estudo publicado na revista Nature, sugere que a maioria dos experimentos de campo pode subestimar o grau de alterações em que o tempo de folhear e floração sofre com o aquecimento global. Indústria http://www.spmet.pt/Eventos/Conferencia1/JM O Desenho de Experiências (DOE) como uma das endonca_Dias.pdf técnicas mais valiosas para melhorar continuamente a qualidade de produtos e processos. Controlo Metrológico de Contadores de Gás http://www.google.com/url?sa=t&rct=j&q=&esrc Realização de um desenho de experiências para obter =s&source=web&cd=1&ved=0CB8QFjAA&url= filmes a partir de quitosano, com incorporação de um http%3A%2F%2Fwww.repository.utl.pt%2Fbits reticulante (Etileno glicol diglicidil eter), nisina e Engenharia tream%2F10400.5%2F3141%2F1%2Fdesenvo glicerol. Química lvimento%2520de%2520filmes%2520bioactivo s%2520a%2520partir%2520do%2520quitosan o.pdf&ei=6PyoUOSbMoShgfJuoHgAg&usg=AFQjCNGImupX6XXe3iPo HWKwfukwFGjNwA&sig2=nvxjAI8D_uVK97BT oUAbVQ http://www.fpce.up.pt/docentes/acpinto/artigos/ Categorização de itens verbais: medidas de frequência Fonética 06_categorizacao_de_itens.pdf de produção e de tipicidade. Indústria de madeiras

http://www.dcf.ufla.br/cerne/artigos/ 13-02-20097730v6_n2_artigo%2001.pdf

4- Fundamentos e generalidade das suas técnicas. Os principais elementos de uma experiência são as unidades experimentais (pessoas, animais, pacientes, matériasprimas, parcelas de terreno, etc.), os fatores (que por vezes são subdivididos em níveis ou tratamentos) e a variável-resposta (que pode ser uma ou várias). Em esquema, pode-se imaginar uma experiência como um conjunto de diferentes tratamentos aplicados pelo investigador a cada unidade experimental do sistema em estudo, após o que se mede a resposta. independentemente dos efeitos dos outros fatores experimentais e dos fatores de unidade. Essa propriedade é garantida se o delineamento é ortogonal. É de todo o interesse do investigador que o Planeamento e Análise de experiências sigam alguns passos:


Pág.8 1) Antes do planeamento propriamente dito, deve-se identificar e definir o problema, escolher os fatores e níveis e selecionar a variável-resposta; 2) Escolher o plano experimental; 3) Realizar a experiência; 4) Analisar estatisticamente os resultados; 5) Elaborar conclusões ou recomendações. Os requisitos mais importantes para o planeamento duma experiência podem resumir-se aos seguintes:     

Evitar os erros sistemáticos ou enviesamentos; Minimizar os erros aleatórios ou "erros naturais"; Deve ser possível estimar a magnitude dos erros aleatórios; Os resultados devem ser o mais preciso possível; Por fim, deve aproveitar-se uma eventual estrutura especial dos dados através da combinação de fatores.

Os requisitos do planeamento experimental exigem e respeitam algumas propriedades habitualmente denominadas princípios básicos do delineamento experimental, são as seguintes: • Repetição ou replicação • Controle local, • Casualização, • Ortogonalidade, • Equilíbrio, • Aleatorização • Eficiência. Estes princípios básicos são essenciais para que a relação entre a estrutura das condições experimentais e a estrutura das unidades assegure a capacidade para a deteção de efeitos relevantes de fatores experimentais de modo sensível e não tendencioso. 1- Repetição ou replicação Um efeito de fatores experimentais é uma função dos níveis ou das combinações dos níveis desses fatores. Inferências referentes a um efeito de fatores experimentais requerem uma estimativa do erro que afeta esses efeitos. Uma estimativa da variância do erro que afeta um efeito de fatores experimentais provém de unidades experimentais com um mesmo nível ou uma mesma combinação dos níveis desses fatores. Assim, essa estimativa requer pelo menos duas unidades experimentais com um mesmo nível ou uma mesma combinação de níveis desses fatores. Essas unidades experimentais constituem repetições desse nível ou dessa combinação de níveis. A repetição ou unidade experimental é a unidade de informação do erro experimental. Portanto, sua definição apropriada é um requerimento do delineamento da experiência. A identificação da repetição para os níveis ou combinações de níveis de fatores experimentais requer a caracterização correta das correspondentes unidades experimentais. 2 - Controle local Consiste na classificação das unidades de observação em grupos de unidades segundo os níveis de uma ou mais características estranhas e na consideração dessa classificação na atribuição dos tratamentos às unidades experimentais de modo que a variação entre esses grupos devida a essas características estranhas não afete efeitos relevantes de fatores experimentais e seja separada da variação atribuível ao erro experimental que afeta esses efeitos. O controlo local permite que, mesmo com material experimental apropriadamente heterogéneo para lograr a representação da população objetivo, a experiência possa ser suficientemente sensível para detetar efeitos importantes dos fatores experimentais.


Pág.9 3 - Casualização A casualização é um requisito experimental introduzido por Fisher, sendo, segundo muitos, uma de suas maiores contribuições à pesquisa experimental. A casualização na atribuição de tratamentos é o processo de assinalação aleatória de unidades experimentais da amostra aos tratamentos através de algum procedimento objetivo de sorteio que atribua a todas as unidades a mesma hipótese de receber qualquer desses tratamentos. Como consequência, os tratamentos e as unidades da amostra têm chances iguais de serem favorecidos ou desfavorecidos pelas características estranhas afetadas pela casualização, Dessa forma, as diferenças atribuíveis às características estranhas casualizadas não afetam tendenciosamente as respostas aos diferentes níveis dos fatores experimentais de tratamento submetidos à casualização. A casualização é a única forma de garantir efetivamente a não tendenciosidade. Assim, a casualização cumpre dois propósitos básicos:  

Evitar que a manifestação de características estranhas possa implicar em confundimento tendencioso dos efeitos dos tratamentos sobre características respostas; Propiciar estimativas não tendenciosas do erro experimental, apropriadas para as inferências derivadas da amostra.

A casualização deve ser tão ampla quanto possível. Idealmente, ela deveria abranger todas as características estranhas não controladas. Na prática, entretanto, a consecução desse ideal é apenas aproximada já que, em geral, a manifestação de muitas características estranhas, particularmente de características relacionadas ao ambiente, está fora do controle do pesquisador. A casualização é como um seguro contra perturbações que possam decorrer da manifestação de características estranhas na amostra. Ela é uma precaução contra essas perturbações que podem ou não ocorrer e que podem ou não ser sérias, se ocorrerem. O trabalho da casualização é recomendável sempre que houver alguma suspeita de que uma ação possa implicar em alguma tendenciosidade, caso não seja efetuada. Naturalmente, como habitualmente há um grande número de operações físicas envolvidas numa experiência, a aplicação da casualização na implementação de cada uma dessas operações exigiria muito tempo e seria demasiadamente trabalhosa. Assim, o pesquisador deve utilizar o seu julgamento para omitir a casualização onde exista conhecimento real de que os resultados não serão viciados. A importância da casualização na atribuição dos tratamentos às unidades é frequentemente reconhecida. É menos compreendida sua importância em qualquer outra intervenção importante durante a condução da experiência que possa implicar em alguma fonte de variação sistemática, ou seja, que implique em alguma forma da variação estranha que não possa ser considerada aleatória. 4 - Ortogonalidade Uma propriedade importante do planeamento de experiências é permitir a derivação de inferências referentes a cada efeito de fatores experimentais separada. A ortogonalidade é uma propriedade altamente desejável por garantir ausência de confundimento de efeitos de fatores experimentais e permitir inferências independentes sobre esses efeitos. Entretanto, a não ortogonalidade não é um defeito grave de um delineamento, desde que possa ser obtido um ajustamento apropriado de cada efeito relevante de fatores experimentais para eliminar o confundimento com efeitos de outros fatores experimentais e de fatores de unidade. Uma consequência da ortogonalidade é a simplicidade dos cálculos envolvidos nos procedimentos de análise estatística. Esse facto foi muito importante antes do advento da computação. Atualmente, esse benefício da ortogonalidade está bastante reduzido. Consequentemente, diminuiu a conveniência do uso de planeamentos com blocos completos e tornou-se mais vantajosa a formação de blocos naturais mais apropriados para o controle da variação estranha cujos tamanhos muito frequentemente não são exatamente iguais ao número de tratamentos. Planeamentos não ortogonais podem resultar da desconsideração de unidades experimentais para contornar confundimento decorrente de características estranhas perturbadoras. A unidade experimental desconsiderada nessas circunstâncias é usualmente designada unidade perdida. Isso ocorre com certa frequência em algumas áreas de pesquisa; por exemplo, em pesquisas com animais, em consequência de morte ou prejuízo a animais ocasionado por doença não atribuível a efeitos de tratamentos, e em pesquisas com plantas, quando ocorre prejuízo ou morte de plantas por efeitos não devidos a tratamentos.


5 – Equilíbrio/Balanceamento

Pág.10

Os planeamentos equilibrados são apropriados para situações em que se torna ou inconveniente ou impossível o uso de planeamentos ortogonais. Um planeamento diz-se equilibrado se conseguir prever igual precisão para todas as comparações simples de tratamentos, ou seja, para todas as comparações individuais. 6 – Aleatorização A aleatorização é o processo pelo qual cada participante tem a mesma probabilidade de ser integrado num dos dois grupos (de intervenção ou controlo).A aleatorização desempenha seguramente um papel fundamental. A razão desta sua importância fundamenta--se em três aspetos essenciais: 1) Remover potenciais enviesamentos de alocação; 2) Produzir grupos comparáveis em relação a fatores de prognóstico (conhecidos e desconhecidos); 3) Garantir que os testes estatísticos tenham níveis de significância válidos. Um enviesamento existe quando ocorre um desvio sistemático da verdade. O enviesamento de alocação ocorre se o processo de aleatorização for previsível, visto que a decisão de incluir e posteriormente definir a alocação de um participante, ficaria à partida viciada e condicionada por inúmeros fatores. Assim, a aleatorização permite que a seleção e a alocação dos elementos de uma amostra pelos diferentes grupos se dêem de tal modo que seja dificultada toda e qualquer influência consciente ou inconsciente praticada por parte do investigador ou do participante. A aleatorização tenta criar grupos passíveis de serem comparados no que respeita a fatores de risco, sejam eles conhecidos ou não. Ela faz com que o prognóstico de base dos diferentes grupos seja o mais semelhante possível, pois, em princípio, permite uma distribuição aleatória dos fatores de prognóstico que influenciam os resultados. Nos ensaios clínicos, por exemplo, embora os grupos comparados nunca sejam totalmente homogéneos em relação às suas características de base, é o processo de aleatorização que permite o uso de testes estatísticos específicos garantindo a comparação probabilística dos mesmos, atribuindo deste modo níveis de significância estatística aos resultados do estudo. De notar que nem todos os autores consideram a aleatorização essencial, apesar de, para a maioria, esta constituir a base da inferência estatística. Em conclusão: a aleatorização é condição indispensável para que os resultados de um Estudo reflitam com o máximo da verosimilhança os efeitos de uma dada intervenção.Ela é essencial para a validade interna do estudo, segundo a qual as eventuais diferenças encontradas se devam, apenas e só, ao efeito da intervenção, não existindo o risco de sub ou super-estimação dos resultados em virtude da presença de erros devidos ao acaso, enviesamento (alocação e seleção) ou confundimento, como se verifica mais frequentemente em estudos não aleatorizados. Que tipos de aleatorização existem? Hoje em dia existem vários métodos para distribuir os indivíduos de um estudo de forma aleatória. Deve-se assumir – a não ser que haja indicação em contrário – que a estratégia de aleatorização vai alocar os participantes para 2 grupos: intervenção e controlo, ainda que alguns dos métodos possam ser usados para gerar mais do que dois grupos. Tipos de Aleatorização: Aleatorização com alocação fixa • Simples • Em bloco • Estratificada Aleatorização adaptativa • Moeda enviesada • Urn design • Da resposta 7 – Eficiência Os princípios considerados anteriormente são propriedades de delineamentos experimentais individuais. A eficiência é uma propriedade referente à precisão de um delineamento comparativamente a outros delineamentos para as mesmas


Pág.11 circunstâncias de material experimental. Um delineamento é mais eficiente do que outro delineamento se a quantidade de informação que ele provê é maior do que a provida por este delineamento alternativo. Assim, a eficiência é uma propriedade referente à precisão que um delineamento pode propiciar relativamente a outros delineamentos alternativos. Essa é uma propriedade altamente importante que deve ser levada em conta na escolha entre delineamentos alternativos apropriados para uma mesma situação experimental. O Planeamento de Experiências (em inglês Design of Experiments, DOE) é uma técnica utilizada para se planear experiências, ou seja, para definir quais dados, em que quantidade e em que condições devem ser adquiridos durante uma determinada experiência, tentando, basicamente, satisfazer dois grandes objetivos: a maior precisão estatística possível na resposta e o menor custo. A sua aplicação no desenvolvimento de novos produtos é muito importante, onde uma maior qualidade dos resultados dos testes pode levar a um projeto com desempenho superior seja em termos de suas características funcionais como também sua robustez. O domínio do problema é de fundamental importância. O conhecimento do especialista sobre o problema conjugado com a técnica (em casos especiais somando-se ainda o auxílio de especialistas em estatística, mais concretamente, planeamento de experiências) é que irá permitir bons planeamentos de experiências, ou seja, planeamentos mais rápidos (menos pontos), de menor custo e que possibilitem aos seus idealizadores responderem, baseado em inferência estatística, a resposta a seus problemas. Apesar de novas, as principais técnicas de planeamento de experiências já existiam e potencialmente, poderiam estar sistematicamente a ser aplicadas na indústria desde há muitos anos. Porém, a grande maioria destas técnicas requer uma quantidade exaustiva de cálculos tornando fundamental o emprego dos recursos informáticos. Um fator que tem impulsionado a aplicação industrial do planeamento de experiências são as ferramentas computacionais de análise estatística e soluções corporativas que cada vez mais facilitam a realização das análises e manutenção e gestão de dados. Neste sentido a tendência é que tais técnicas tornem-se cada vez mais próximas de aplicações práticas e, portanto, cada vez mais utilizadas. É preciso estar claro também que, em estatística, Planeamento de Experiências é toda uma área de estudos que agrega técnicas distintas e vastas. Há atualmente todo um arsenal de técnicas, com vários níveis de sofisticação e uma quantidade não menor de livros sobre o assunto. Por forma a entendermos melhor a terminologia que se utiliza em Planeamento de Experiências, tentemos entender cada conceito pra uniformizarmos definições. Sugira-se um Glossário de Planeamento de Experiências: Glossário    

Fatores ou Tratamentos: são as variáveis de controlo ou entrada. Níveis: correspondem às faixas de valores das variáveis de controlo. Variável resposta: parâmetro de saída, resultante de uma variação nas variáveis de entrada. Aleatorização: é a prática de realizar a escolha das corridas (ou pontos experimentais) por meio de um processo aleatório (tal como dados ou sorteio). Esta prática simples em muitos casos garante as condições de identidade e independência dos dados recolhidos e evita erros sistemáticos. Blocos: são agrupamentos de dados para eliminar fontes de variabilidade que não são de interesse do espectador;

Tipos de Planeamento de Experiências      

Tratamento em pares; Tratamento em blocos; Quadrado Latino; Quadrado Greco-Latino; Quadrado Hiper-Greco-Latino ; Experiências Fatoriais;

No quadro seguinte referimos um resumo no qual se mostram as principais diferenças entre os vários tipos de planeamento experimental:


Pág.12

Tipos de Planeamento Experimental Classificação do Planeamento de Experiências

Aplicação

Estrutura

Informações obtidas

Apropriado quando estudamos apenas um fator experimental

O efeito do fator é estudado por meio da alocação ao acaso das unidades experimentais aos tratamentos (níveis do fator). Os ensaios são realizados aleatoriamente.

Estimativa e comparações dos efeitos dos tratamentos

Apropriado quando vários fatores devem ser estudados em dois ou mais níveis e as interações entre os fatores podem ser importantes

Em cada repetição completa todas as combinações possíveis dos níveis dos fatores (tratamentos) são estudadas. A alocação das unidades experimentais aos tratamentos e a ordem de realização dos ensaios são feitas de modo aleatório.

Estimativas e comparações dos efeitos dos fatores

Apropriado quando o número de ensaios necessários para o planeamento em k fatores em 2 níveis é muito grande para que sejam realizados sob condições homogéneas

O conjunto completo de tratamentos é divido em subconjuntos de modo que as interacções de ordem mais alta são confundidas com os blocos. São tomadas observações em todos os blocos. Os blocos surgem geralmente como consequência de restrições de tempo, homogeneidade de materiais, etc.

Fornece as mesmas estimativas do planeamento fatorial, excepto algumas interacções de ordem mais alta que não podem ser estimadas porque estão confundidas com os blocos.

Fatorial 2k fraccionário

Apropriado quando existem muitos fatores (k muito grande) e não é possível recolher observações em todos os tratamentos

Vários fatores são estudados em dois níveis, mas somente um subconjunto do fatorial completo é executado. A formação dos blocos algumas vezes é possível.

Estimativas e comparações dos efeitos de vários fatores

São tomadas observações correspondentes a todos os tratamentos (níveis do fator) em cada bloco. Habitualmente os blocos são considerados em relação a um único fator pertubador.

Estimativas e comparações dos efeitos dos tratamentos livres dos efeitos do bloco

Blocos aleatorizados

Apropriado quando o efeito de um fator está em estudo e é necessário controlar a variabilidade provocada por fatores pertubadores conhecidos. Estes fatores pertubadores (material, tempo, pessoas, etc.) são divididos em blocos ou grupos homogéneos

Apropriado quando todos os tratamentos não podem ser inseridos num único bloco

Os tratamentos testados em cada bloco são seleccionados de forma equilibrada: dois tratamentos quaisquer aparecem juntos em um mesmo bloco o mesmo número de vezes que qualquer outro par de tratamentos

Idêntico ao planeamento em blocos aleatorizados. Os efeitos de todos os tratamentos são estimados com igual precisão

Apropriado quando um planeamento em blocos incompletos equilibrados necessita de um número de blocos excessivamente grande

Alguns pares de tratamentos aparecem juntos n1 vezes, outros pares aparecem juntos n2 vezes,..., e os pares restantes aparecem juntos m vezes.

Idêntico ao planeamento em blocos aleatorizados, mas os efeitos dos tratamentos são estimados com diferentes precisões

Apropriado quando um fator de interesse está a ser estudado e os resultados podem ser afectados por duas outras variáveis

O quadrado latino é um arranjo para permitir dois grupos de restrições de bloco. Os tratamentos são distribuídos em correspondência à s colunas e linhas de um quadrado. Cada tratamento

Estimativas e comparações dos efeitos dos tratamentos livres dos efeitos das duas variáveis bloco.

Completamente Aleatorizado com um único fator

Fatorial

Fatorial 2k em blocos

Blocos Incompletos Equilibrados

Blocos Incompletos Parcialmente Equilibrados


Pág.13 experimentais ou por duas fontes de heterogeneidade. É suposta a ausência de interacções

aparece uma vez em cada linha e uma vez em cada coluna. O número de tratamentos deve ser igual ao número de linhas e colunas do quadrado. Os blocos são formados em relação a duas variáveis pertubadoras, as quais correspondem à s colunas e linhas do quadrado.

Similares aos quadrados latinos, mas o número de linhas, colunas e tratamentos não precisam ser iguais

Cada tratamento ocorre uma vez em cada linha. O número de tratamentos deve ser igual ao número de colunas. Os blocos são formados em relação a duas variáveis perturbadoras

Idêntico ao planeamento em quadrados latinos

Experiências com vários fatores em que os níveis de um fator (B) são similares mas não idênticos para diferentes níveis de outro fator (A). Ou seja, o j-ésimo nível de B quando A está no nível 1 é diferente do j-ésimo nível de B quando A está no nível 2 e assim por diante

Os níveis do fator B estão aninhados abaixo dos níveis do fator A

Estimativas e comparações dos efeitos dos fatores

O objectivo consiste em fornecer mapas empíricos ou gráficos de contorno. Estes mapas ilustram a forma pela qual os fatores, que podem ser controlados pelo pesquisador, influenciam a variável resposta

Os níveis dos fatores são vistos como pontos no espaço de fatores (muitas vezes multidimensional) no qual a resposta será registada

Mapas que ilustram a natureza e a forma da superfície de resposta

Quadrados Latinos

Quadrados de Youden

Hierárquico

Superfície de resposta

Quadro retirado de http://www.portaldeconhecimentos.org.br

5-Conhecer e investigar modelos clássicos do Planeamento de Experiências Os verdadeiros projetos experimentais incluem:   

Planeamento grupo de controle Pre-test/Post-test Planeamento quatro grupos Planeamento de grupo de controle único Pós-teste

Planeamento de grupo controle Pre-test/Post-test é também chamado o Planeamento experimental clássico controlado e projeto randomizado pre-test/post-test porque: 1) Controla a atribuição de assuntos para experimentar (tratamento) e os grupos de controle através do uso de uma tabela de números aleatórios. Este procedimento garante que todos os indivíduos têm a mesma mudança de estar no grupo experimental ou controle. Devido à atribuição aleatória dos sujeitos, presume-se que os dois grupos sejam equivalentes em todas as dimensões importantes e que não existem diferenças sistemáticas entre os dois grupos. Pesquisadores podem substituir correspondente para a atribuição aleatória. Assuntos dos dois grupos são combinados numa lista de características que podem afetar o resultado da investigação (por exemplo, sexo, renda, raça). Isto pode ser mais barato, mas correspondente a mais do que 3 ou 4 características é muito difícil. E se o pesquisador não sabe quais as características a combinar, compromete a validade interna


Pág.14

2) Controla o tempo da variável independente (tratamento) e o grupo que é exposto a ela. Ambos os grupos experimentam as mesmas condições, com a exceção do grupo experimental, o qual recebe a influência da variável independente (tratamento), para além das condições comuns aos dois grupos. 3) Controla todas as outras condições em que a experiência se realiza. A intervenção da variável independente (tratamento) é assumida para produzir as alterações observadas nos valores da variável dependente Etapas da experimentação clássica controlada: 1) Designar aleatoriamente sujeitos a tratamento ou grupos de controlo; 2) Administrar o pré-teste a todos os indivíduos de ambos os grupos; 3) Assegurar que ambos os grupos experimentam as mesmas condições, exceto o grupo experimental que recebe o tratamento; 4) Administrar o pós-teste a todos os indivíduos de ambos os grupos; 5) Avaliar a quantidade de mudança no valor da variável dependente a partir do pré-teste para o pós-teste, para cada grupo separadamente. Estes passos são esquematizados como se segue: R R

O1 O1

X

O2 O2

Este diagrama pode ser representado como na tabela seguinte:

Atribuição aleatória 1ª observação (medição) da Exposição ao 2ª Observação (medição) científica de temas variável dependente Tratamento (X) (variável variável dependente para: O1 = Pré-teste independente) O2 = Post-teste

da

Grupo Experimental

Pontuação média do Grupo X Experimental sobre a variável dependente

Pontuação média do Grupo Experimental sobre a variável dependente

Grupo de Controlo

Pontuação média do Grupo de Controle sobre a variável dependente

Pontuação média do Grupo de controle sobre a variável dependente

A diferença na pontuação do grupo de controlo a partir do pré-teste para o pós-teste indica a alteração no valor da variável dependente, que se podia esperar que ocorresse sem exposição ao tratamento (independente) variável X. (pontuação pré-teste G.controle - pontuação pós-teste G. controle = diferença da variável dependente G.controle) A diferença na pontuação do grupo experimental a partir do pré-teste para o pós-teste indica a alteração no valor da variável dependente, que se podia esperar que ocorrer com a exposição ao tratamento (independente) variável X. (pontuação pré-teste G.experimental - pontuação pós-teste G. experimental = diferença da variável dependente G.experimental)


Pág.15 A diferença entre a alteração no grupo experimental e a alteração no grupo de controlo é a quantidade de mudança no valor da variável dependente, que pode ser atribuído exclusivamente à influência das variáveis independentes (tratamento) variável X. (Diferença grupo controle - diferença grupo experimental = diferença atribuível a X) O projeto controlado ou verdadeiros planeamentos experimentais permitem ao pesquisador controlar ameaças à validade interna e externa do estudo. Ameaças à validade interna comprometem a habilidade do pesquisador para dizer se existe um relacionamento entre as variáveis independentes e dependentes. Ameaças à validade externa comprometem a habilidade do pesquisador para dizer se os resultados deste estudo são aplicáveis a quaisquer outros grupos

6 – Testes F e situações experimentais A distribuição F de Snedecor também conhecida como distribuição de Fisher é frequentemente utilizada na inferência estatística para análise da variância. Dizemos que uma variável aleatória contínua X tem distribuição F de Snedecor com n graus de liberdade no numerador e m graus de liberdade no denominador se sua função densidade de probabilidade for definida por:

( )

(

)( )

( ) ( )(

)

Ao realizarmos um teste F temos que nos certificar que alguns pressupostos se verificam:   

As amostras são aleatórias para cada população (ou tratamento) As populações seguem uma distribuição Normal: - testar o ajuste à Normal para cada tratamento - o teste mostra alguma robustez perante pequenos afastamentos da Normal As populações são homogéneas: - é necessário testar a igualdade de variâncias para cada tratamento - maior robustez a este pressuposto se as amostras tiverem igual dimensão

Interpretação do P-valor Obtemos um nível de significância (ou P-valor) para o teste F, por exemplo, comparando o valor F0 com o quantil da distribuição F, A maioria dos programas computacionais, que ajustam modelos de regressão incluem o cálculo do na tabela ANOVA. Quando o p-valor é aproximadamente zero significa que, se a hipótese nula (H0) for verdadeira, a hipótese de F exceder o valor observado F0 é praticamente nula. Esta é uma evidência muito forte, contra H0..O p-valor é uma probabilidade condicional de observar um valor da estatística computada, nesse caso como maior do que o valor observado, sob H0. Um p-valor pequeno fornece evidências contra H0.Em algumas áreas de pesquisa, é adotado um nível de significância fixo para examinar o p-valor. Por exemplo, se fixarmos um nível de significância ( ), então poderemos dizer que uma hipótese nula é rejeitada a este nível, quando o p-valor é menor do que esse nível. A escolha mais comum para é 0,05, isto significa que quando é verdadeira encontraremos evidências contra essa hipótese em aproximadamente 5% dos elementos da amostra. Denominamos significância estatística a observação de um P-valor suficientemente pequeno, porém essa significância necessita de outros métodos para ser determinada, além do P-valor. A distribuição F é formada pela proporção de duas independentes do qui-quadrado variáveis divididos pelos seus respectivos graus de liberdade.


Pág.16 Como F é formado por qui-quadrado, muitas das propriedades do qui-quadrado transitar para a distribuição F. Eis algumas características da distribuição F :     

Os F-valores são todos não-negativos A distribuição é não-simétrica A média é de aproximadamente 1 Existem dois graus de liberdade independentes, uma para o numerador, e um para o denominador. Existem muitas distribuições F diferentes, um para cada par de graus de liberdade.

O F-teste é desenhado para testar se duas variâncias populacionais são iguais. Isso consegue-se através da comparação do rácio de variâncias. Assim, se os desvios forem iguais, a proporção das variâncias será 1, conforme a seguir se indica: ⁄

sendo que

(

)

(

)

Todos os testes de hipótese são conduzidos sob a suposição de que a hipótese nula é verdadeira. Se a hipótese nula é verdadeira, então o teste estatístico F dado acima pode ser simplificado. Esta razão de variâncias amostrais será estatística de teste utilizado. Se a hipótese nula é falsa, então vamos rejeitar a hipótese nula de que a relação era igual a 1 e nossa suposição de que eles eram iguais. Existem várias tabelas F diferentes. Cada uma tem um nível diferente de significado. Assim, devemos encontrar o nível correto de significado primeiro, e depois olhar para os graus de liberdade do numerador e os graus de liberdade do denominador para encontrar o valor crítico. Em todas as tabelas da distribuição F só surge um nível de significância para os testes de cauda à direita. Como a distribuição F não é simétrica, e porque não existem valores negativos, se pretendermos encontrar o valor critico à esquerda deveremos reverter os graus de liberdade.

7 – ANOVA – Pressupostos e técnicas O objetivo principal da análise de variância (analysis of variance - ANOVA) é a comparação de mais do que dois grupos no que diz respeito à localização da sua média. A Análise de Variância (Anova) é, provavelmente, o método estatístico de maior repercussão na pesquisa científica, especialmente na experimentação agrícola, de onde surgiu como uma das muitas provas do génio de Fisher. A ANOVA é uma técnica estatística que foi desenvolvida por Fisher e que permite então a comparação simultânea de k médias com recurso à distribuição F de Fisher. A Anova pode ser aplicada de formas distintas sendo que, quando só existe um interesse em estudo, denominamos Análise de variância a um fator (One way Anova). Em muitas situações há mais do que um fator a influenciar os resultados das observações - neste caso, falamos em Anova a 2 fatores (Two way Anova). Se existirem mais do que dois fatores a condicionar os resultados também podemos falar em Anova a 3 fatores (Three way Anova) ou multifatorial.Por outro lado dizemos que a análise de variância tem tantos níveis ou efeitos quantos grupos distintos se considerem. Por vezes usamos a expressão tratamento em vez de grupo. Na maior parte dos casos, os grupos são determinados à partida – dizemos então que estamos perante uma Anova com efeitos fixos. Em alternativa, os grupos podem ser retirados aleatoriamente de entre um conjunto alargado de possibilidades. Neste caso estamos perante uma análise de variância com efeitos aleatórios. Em muitas experiências interessa estudar o efeito de mais do que um fator sobre uma variável de interesse. Quando uma experiência envolve dois ou mais fatores diz-se que temos uma ANOVA múltipla. Uma ANOVA em que todas as combinações de todos os níveis de todos os fatores são consideradas diz-se ANOVA fatorial. Na maioria das situações, quando estamos interessados em estudar a influência de dois ou mais fatores numa variável, utilizamos uma ANOVA fatorial.


Pág.17 Vimos que numa ANOVA simples o fator em causa podia ter os efeitos fixos ou os efeitos aleatórios. O mesmo se vai passar com os modelos de ANOVA com dois ou mais fatores. Quando um modelo tem todos os fatores com efeitos fixos diz-se que temos uma ANOVA de efeitos fixos ou um Modelo I de ANOVA. Quando um modelo tem todos os fatores com efeitos aleatórios diz-se que temos uma ANOVA de efeitos aleatórios ou um Modelo II de ANOVA. Quando um modelo tem alguns fatores com efeitos fixos e outros com efeitos aleatórios diz-se que temos uma ANOVA de efeitos mistos ou um Modelo III de ANOVA. Antes de conduzir uma análise de variância (Anova) , os investigadores devem assegurar-se que se verificam os pressupostos inerentes a este tipo de estudo, que são, a saber: i. ii. iii.

as componentes do erro associadas à variável dependente são independentes os erros distribuem-se normalmente as variâncias nos vários níveis dos grupos da variável independente são iguais

Existem vários testes que podem ser utilizados, seja manualmente ou com recurso a softwares adequados, para a verificação destes pressupostos. Eis alguns exemplos: 1 – para verificar a Normalidade :   

Teste de Kolmogorov-Smirnov Teste D’Agostino-Pearson Teste de Shapiro-Wilk

2 - Para verificar a homogeneidade das variâncias:   

Teste de Hartley Teste de Cochran Teste de Bartlett

3.ANÁLISE DE VARIÂNCIA A UM FATOR E EFEITOS FIXOS Em experiências com um fator os dados consistem em k grupos/tratamentos independentes de amostras e em cada grupo são feitas ni medições. Se todas as amostras tiverem o mesmo número de medições (a mesma dimensão) dizemos que se trata de um caso equilibrado Notação a adotar: Yij – Resposta observada para cada tratamento, com i= 1,2,3,…k ; j=1,2,3…n i N – total de observações , com N= k.ni Modelo Yij = µi + εij = µ + τi + εij Em que µi - média de cada grupo µ - média de todos os grupo (média global) εij – o erro aleatório de cada observação, sendo estes erros independentes entre si τi - parâmetro único para o tratamento i (efeito do i-ésimo tratamento) Pressupõe-se que εij  N(0,σ2) , pelo que Yij  N(µi,σ2) Isto significa que cada grupo provém de uma população Normal com uma certa média µi, mas todos com a mesma variância.


Pág.18 Pressupostos 1. Temos k grupos/tratamentos de observações independentes, sendo os grupos independentes entre si 2. Cada grupo de observações deve provir de uma distribuição Normal 3. A variância das populações deve ser a mesma (homocedastecidade) Hipóteses a testar H0 : µ1= µ2= …= µk = µ

vs H1 : µi≠ µj para pelo menos um par (i,j)

Representação Yio →soma total das observações do i-ésimo tratamento Yi●→média das observações do i-ésimo tratamento y●●→média global das observações Assim, temos que Yio= ∑

, Yi● = ∑

Yoo=∑

, i =1,2,…,k , n= ∑

, y●● =

A Soma de Quadrados Total , SQT , mede a variabilidade global dos dados. Assim, temos que SQT= ∑

(

)

A variabilidade total pode ser expressa como uma partição: ∑

( SQT

)

= ∑ =

( SQA

)

+ +

(

)

SQE

Em que   

SQT representa a soma de quadrados total SQA representa a soma de quadrados entre amostras (devido aos tratamentos) SQE representa a soma de quadrados no erro/resíduo

Para podermos efectuar o estudo da Anova com maior facilidade é habitual representarmos todos os dados numa tabela Anova como a que se segue:


Pág.19 Origem de variação Entre tratamentos

Graus de Liberdade k-1

Soma de Quadrados SQA

Quadrados Médios

Entre erros

n-k

SQE

QME=

total

n-1

SQT

Razão de Variância

QMA=

Tomada da decisão: Ao calcularmos a razão de variâncias ,

F 0=

⁄ ⁄

=

, esta terá distribuição F de Fisher-Snedecor,

com k-1, n-k graus de liberdade. A regra da decisão que devemos adoptar é Rejeitar a hipótese nula ao nível de significância α, se F0 > Fk-1,n-k (α%) ANÁLISE DE VARIÂNCIA A UM FATOR E EFEITOS ALEATÓRIOS É possível haver necessidade de realizar experiências em que estão envolvidos um grande número de níveis ou tratamentos. Nesse caso, torna-se impossível para o investigador estudá-los todos, pelo que deverá proceder a uma selecção aleatória de alguns. Este é o modelo de efeitos aleatórios. Como a selecção é feita aleatoriamente, é possível extrapolar as conclusões para a população. Modelo Yij = µ + τi + εij , i= 1,2,…t ; j= 1,2,…, r , Yij – Resposta observada para cada tratamento, com i= 1,2,3,…k ; j=1,2,3…n i µ - representa a média de todos os grupo (média global) εij – representa o erro aleatório de cada observação, sendo estes erros independentes entre si τi - representa o parâmetro único para o tratamento i (efeito do i-ésimo tratamento) Pressupostos τi – Normal e identicamente distribuídos, independentes e com média 0 e variância εij - Normal e identicamente distribuídos, independentes e com média 0 e variância σ 2 τi e εij são independentes Hipóteses a testar H0 :

= 0 (não há variabilidade entre tratamentos)

H1 :

(há variabilidade entre tratamentos)


Pág.20 Representação Yio →soma total das observações do i-ésimo tratamento Yi●→média das observações do i-ésimo tratamento y●●→média global das observações Yio= ∑

, Yi● =

, i=1,2,…,kYoo=∑

, n= ∑

, y●● =

A Soma de Quadrados Total , SQT , mede a variabilidade global dos dados. Assim, SQT= ∑

(

)

E a variabilidade revela-se na forma de uma partição: ∑

( SQT

)

= ∑ =

( SQA

)

+ +

Neste caso, a razão de variâncias pode ser definida por ,

F 0=

( SQE ⁄ ⁄

)

=

e o quadro resumo deste modelo

desta forma: Origem de variação Entre tratamentos

Graus de Liberdade t-1

Soma de Quadrados SQA

Quadrados Médios

Entre erros

n-t

SQE

QME=

total

n-1

SQT

Razão de Variância

QMA=

Tomada da decisão: A regra da decisão que devemos adotar é Rejeitar a hipótese nula ao nível de significância α, se F0 > Fk-1,n-k (α%)

ANÁLISE DE VARIÂNCIA – EFEITOS MISTOS Em alguns estudos poderá ser conveniente que uns fatores sejam fixos e outros aleatórios. Um modelo misto é aquele que apresenta tanto fatores de efeitos fixos como aleatórios, além do erro experimental e da constante . Quando um modelo é considerado misto, sua análise de variância apresenta algumas peculiaridades, como a composição das esperanças matemáticas dos quadrados médios, cujo conhecimento permite o estabelecimento correto dos testes de hipóteses.


Pág.21 Outro motivo de se adotar um modelo linear misto é a possibilidade de se fazer a predição de efeitos aleatórios, na presença de efeitos fixos, através dos BLUP’s (best linear unbiased prediction) que são de grande valia na área da genética, por exemplo. Modelo - é a observação referente à k-ésima repetição do nível i de uma fonte de efeitos fixos ao nível j de uma fonte de efeitos aleatórios; - é uma constante inerente a todas observações; é o efeito do nível i do fator fixo; i = 1, ..., p; - é o efeito do nível j, do fator aleatório, no nível i do fator fixo, j = 1, ..., q; - é erro aleatório associado a observação Pressupostos Neste modelo assume-se que :  

∑ (

)

As somas dos quadrados e os quadrados médios são calculados do modo habitual, e os valores esperados são dados pelas expressões: (

)

(

)

(

)

As estatísticas de teste serão :

As estimativas dos efeitos e as respetivas componentes da variância são dados da seguinte forma: ̂

̅​̅​̅​̅

̂

̂

̅

̅ ̂

̂

Matricialmente, é possível descrever o modelo misto, uma vez que existem 2 fatores em estudo:

Em que vector das observações matriz de incidência dos efeitos fixos vetor de efeitos fixos matriz de incidência dos efeitos aleatórios vetor de efeitos aleatórios vetor dos erros aleatórios E

n = número de observações p= número de parâmetros q=número de efeitos aleatórios

(

)


Pág.22 Assume-se que os efeitos aleatórios e os erros (ou residuos) têm então uma distribuição Normal, com média 0 e são não correlacionadas, com matrizes de variâncias e covariâncias, respetivamente G e R, matrizes positivas definidas, por hipótese e, portanto não singulares, dadas por: Var ( ) Var ( )

( (

) )

Na sua forma matricial teremos então que [ ]

[

]

Assim, poderemos então escrever as seguintes relações: ( )

(

)

(

)

( )

( )

E, deste modo, assumindo que V é não singular e ( ) E desta forma se conclui que

(

(

)

)

Não será difícil compreender que é de fato trabalhoso efectuar estudos com recurso a este modelo, mas existem muitas situações específicas em que o investigador considera profícuo recorrer a este modelo.

8 – A pesquisa e as escolhas O GOOGLE continua a ser o motor de busca favorito da maioria de nós. A nossa busca começou com palavras-chave simples : “planeamento de experiências”, “planejamento de experiências” e encontrámos vários artigos interessantes , daí termos referido essas escolhas no fórum. Ainda assim, muitas destas pesquisas se mostraram repetitivas e insuficientes, pelo que , muitos de nós tivemos que alargar a busca em inglês, usando como palavras chave “Design of Experiments”. O nosso leque de escolhas era de fato muito vasto e pensamos termos recorrido a quase todas na segunda parte da actividade. Alguns de nós não participaram na primeira fase de recolha, mas, à posteriori acabaram por se alargar nas buscas, já que as solicitações eram muitas. Foi um árduo trabalho de pesquisa e selecção, e, muitos dos exemplos de aplicação que buscámos revelaram-se infrutíferos pois não referiam os métodos aplicados. Outro dos motores de busca utilizados foi o Schoolar Google que é sempre uma ajuda na pesquisa de estudos científicos, mas, mesmo esse, devolveu poucos estudos em que fossem referidos os métodos aplicados. Ainda assim, foi um trabalho fantástico, em que aprendemos imenso, pusemos em prática algumas das aprendizagens passadas e alguns de nós aprenderam a trabalhar com novas ferramentas. O espirito de entreajuda esteve sempre presente e o de sacrifício principalmente. Eis as justificações das nossas escolhas: Site : http://thequalityportal.com/q_know02.htm Descrição : por ser um portal muito completo com indicações importantes sobre DOE Site: http://www.moresteam.com/toolbox/design-of-experiments.cfm Descrição: porque apresenta um roadbook sobre DOE Site: http://www.pedro.unifei.edu.br/download/cap4.pdf Descrição: um powerpoint engraçado e muito útil onde se traçam as guidelines do planeamento de experiências Site: http://www.stats.gla.ac.uk/steps/glossary/anova.html Descrição: um super útil glossário de estatística que pode ajudar nas tarefas mais simples


Pág.23 Site: http://www.jhuapl.edu/techdigest/TD/td2703/telford.pdf Descrição: como o próprio nome indica, um guia sobre planeamento de experiências, com os seus princípios fundamentais, repleto de informações preciosas para quem tem um trabalhinho deste para fazer Site: https://onlinecourses.science.psu.edu/stat503/node/6 Descrição: breve história do planeamento de experiências - dá sempre jeito Site: http://www.ehow.com/about_5463828_history-experimental-design.html Descrição: também refere-se à história do planeamento de experiências Site: http://pt.scribd.com/doc/33385/A-Brief-Overview-of-Design-of-Experiments-for-High-School-Math-and-ScienceStudents Descrição: também sobre a história do planeamento de experiências, complementa as duas escolhas anteriores Site: http://www.portalaction.com.br/content/14-an%C3%A1lise-de-vari%C3%A2ncia Descrição: o portal action já nos habituou à sua simplicidade. Apresenta os conceitos básicos na sua essência Site: http://www.statsoft.com/textbook/anova-manova/ Descrição: da StatSoft, bastante completo no seu percurso-com indicações sobre o que é planeamento de experiências, categorias, softwares utilizados, etc... Site: http://cpdee.ufmg.br/~fcampelo/files/disciplinas/EEE933/2012-/Referencias/Livros%20e%20Guias/Silva2007%20%20Estat%EDstica%20Experimental%20-%20%20Planejamento%20de%20Experimentos%20.pdf Descrição: Este pdf fez parte das escolhas pois pareceu um bom “manual” de planeamento de experiencias, uma vez que abordava toda a temática proposta. Site: http://www.dcf.ufla.br/cerne/artigos/13-02-20097730v6_n2_artigo%2001.pdf Site: http://www.usgs.gov/blogs/features/usgs_science_pick/experiments-underestimate-climate-change-impacts-toplants/ Descrição: Estas duas escolhas são o exemplo de estudos na problemática recente de áreas como o clima e na qualidade de produtos de consumo humano Site: http://w3.ualg.pt/~eesteves/docs/PlaneamentoExperimental.pdf Descrição:Esta escolha teve a ver com uma boa maneira (explicita, sistematizada e resumida) de apresentar a realizar um planeamento experimental. Site: http://www.itl.nist.gov/div898/handbook/pri/section1/pri11.htm Descrição: Esta escolha mostra-nos toda esta metodologia a adotar na obtenção e planeamento do modelo Experimental Site: http://run.unl.pt/bitstream/10362/1983/1/Silva_2009.pdf Descrição: Esta escolha teve como objectivo recolher informação sobre a história do planeamento de experiências Site: http://w3.ualg.pt/~eesteves/docs/PlaneamentoExperimental.pdf Descrição: O porquê do planeamento de experiências Site: http://run.unl.pt/bitstrehttp://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=21&ved=0CB8QFjAAOBQ&u rl=http%3A%2F%2Fwww.inf.ufsc.br%2F~ogliari%2Fblocosquadradolatinoeoutros.ppt&ei=smiVULu7CYe2hQf0hYD4AQ &usg=AFQjCNHqQYRfYtXYYapSC9zQGEzyPB47g&sig2=YpTc12J26ee725B_6yHq6wam/10362/1793/1/Mascarenhas_2008.pdf Descrição: esta escolha esteve relacionada com os vários tipos de modelos existentes


Site:http://www.estv.ipv.pt/PaginasPessoais/psarabando/Estat%C3%ADstica%20%20CA%2020092010/slides/Anova/ANOVA.pdf http://www.est.ufpr.br/ce003/material/cap7.pdf http://www2.mat.ua.pt/pessoais/ahall/Bioestat%C3%ADstica/ANOVAcontinua.pdf Descrição: páginas sobre Anova Site: http://www.corwin.com/upm-data/29173_Millsap___Chapter_2.pdf http://www.csulb.edu/~msaintg/ppa696/696exper.htm#Pre-test/Post-test Descrição: a estatística propriamente dita

Pág.24


Pág.25

BIBLIOGRAFIA [1] Corrêa da Silva, João Gilberto, Planejamento de experiências, Pelotas, 2007 [2] Oliveira, Teresa Paula C., Estatística Aplicada, Universidade Aberta, 2002 [3] Montgomery, Douglas, Design and Analysis of Experiments, 5th Edition, 1997 [4] Gamst, Glenn, Meyers, Lawrence, Guarino, AJ, Analysis of Variance Designs, Cambridge, 2008 [5] Dean, Angela, Voss, Daniel, Design and Analysis of experiments,1999 [6] Correia, Helga, Anova na Educação, Tese de Mestrado, Universidade Aberta, 2010-2011 WEBGRAFIA [7] http://rtutorialseries.blogspot.pt/2011/03/r-tutorial-series-anova-pairwise.html [8] http://www.portalaction.com.br [9] http://thequalityportal.com/q_know02.htm [10] http://www.moresteam.com/toolbox/design-of-experiments.cfm [11] http://www.pedro.unifei.edu.br/download/cap4.pdf [12] http://www.stats.gla.ac.uk/steps/glossary/anova.html [13] http://www.jhuapl.edu/techdigest/TD/td2703/telford.pdf [14] https://onlinecourses.science.psu.edu/stat503/node/6 [15] http://www.ehow.com/about_5463828_history-experimental-design.html [16] http://pt.scribd.com/doc/33385/A-Brief-Overview-of-Design-of-Experiments-for-High-School-Math-and-ScienceStudents

[17] http://www.portalaction.com.br/content/14-an%C3%A1lise-de-vari%C3%A2ncia [18] http://www.statsoft.com/textbook/anova-manova/ [19] http://thequalityportal.com/q_know02.htm [20] http://www.moresteam.com/toolbox/design-of-experiments.cfm [21] http://www.dcf.ufla.br/cerne/artigos/13-02-20097730v6_n2_artigo%2001.pdf [22]http://www.tecnicelpa.com/files/Utilizacao%20do%20planeamento%20de%20experiencias.pdf [23] http://path.web.ua.pt/file/Ana%20tavares%20tese.pdf [24] https://dspace.ist.utl.pt/bitstream/2295/152389/1/Tese_NunoMoitaN45753.pdf [25] http://www.spmet.pt/Eventos/Conferencia1/JMendonca_Dias.pdf [26] http://run.unl.pt/bitstream/10362/5644/1/Figueiredo_2011.pdf


Pรกg.26 [27]http://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0CB8QFjAA&url=http%3A%2F%2Fww w.repository.utl.pt%2Fbitstream%2F10400.5%2F3141%2F1%2Fdesenvolvimento%2520de%2520filmes%2520bioactivo s%2520a%2520partir%2520do%2520quitosano.pdf&ei=6PyoUOSbMoShgfJuoHgAg&usg=AFQjCNGImupX6XXe3iPoHWKwfukwFGjNwA&sig2=nvxjAI8D_uVK97BToUAbVQ [28] http://www.fpce.up.pt/docentes/acpinto/artigos/06_categorizacao_de_itens.pdf [29]http://ambientes.ambientebrasil.com.br/biotecnologia/artigos_de_biotecnologia/engenharia_genetica_(a_ciencia_da _vida).html [30] http://www.biologo.com.br/experiencia.html

[31] http://www.moresteam.com/toolbox/design-of-experiments.cfm [32] http://www.portaldeconhecimentos.org.br


Pรกg.27

DOE DOE

2012


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.