Monday 28 May 2018

Desvio padrão médio móvel ponderado exponencialmente


Oi, coloquei alguns dados do processo por 3 anos e eu quero imitar uma análise prospectiva EWMA, para ver se o meu parâmetro de suavização do conjunto teria detectado todas as mudanças importantes (sem muitos alarmes falsos). Parece que a maioria dos livros didáticos e literatura que procurei usar um desvio padrão e médio para calcular os limites de controle. Esta é geralmente a média de controle e o desvio padrão de alguns dados históricos, ou a média e a população da população a partir da qual as amostras são desenhadas. Eu não tenho nenhuma informação. Existe outra maneira de calcular os limites de controle Existe uma variação do gráfico EWMA que não usa desvio padrão e padrão. Todas as idéias criativas. Obrigado antecipadamente. Para garantir que eu entenda isso: você poderia calcular o significado e a variância do EWMA, mas você Não há uma linha de base para compará-los. Parece-me que você tem uma técnica supervisionada (o que supõe que você pode definir o que parece ser um pouco), mas você quer uma técnica não supervisionada (que só procura diferenças sem chamar um estado de quotgoodquot e outro Quotbadquot). Para técnicas não supervisionadas, o agrupamento vem à mente, mas teria que ser modificado para se candidatar a timeseries. Como sobre a Razão de Viabilidade Generalizada (GLR) ndash Jim Pivarski 25 de junho 14 às 2:49 Se nos referimos a en. wikipedia. orgwikiEWMAchart. Eu posso calcular o Zi para o meu lambda dado, mas quando se trata dos limites de controle, não tenho dados históricos para calcular o T e S. Obrigado Eu vou olhar para o GLR e também publicar no Cross Validated. Ndash user3295481 25 de junho 14 às 2:54 Sim, T e S são o desvio padrão e médio de uma distribuição de linha de base, que é dada a priori ou determinada a partir de um conjunto de dados de treinamento. O conjunto de dados de treinamento representa o que os dados não devem parecer, portanto, esta é uma técnica supervisionada e você quer uma técnica não supervisionada. O GLR não é ponderado exponencialmente, mas encontra dinamicamente uma ruptura nos dados entre duas distribuições diferentes e combina dados em cada lado da quebra para obter resultados mais robustos. Pode ser o que você quer. Ndash Jim Pivarski 25 de junho 14 às 3:00 De uma perspectiva operacional prática, o uso da análise estatística de dados históricos por si só é raro. Sim, fornece algumas orientações sobre como o processo (e seu sistema de controle) estão funcionando, no entanto, o mais importante é, de longe, ter uma boa compreensão e conhecimento dos limites de engenharia. Refiro-me aos limites operacionais, que são determinados pelas especificações e características de desempenho dos vários equipamentos. Isso permite que se desenvolva uma boa compreensão de como o processo deve se comportar (em termos de ponto de operação ideal e limites de controle superior) e onde as áreas de maior desvio do ótimo são. Isso tem muito pouco a ver com a análise estatística de dados históricos, e um ótimo negócio com a técnica de metalurgia de processo - dependendo do tipo de processo que você está lidando. Os limites de controle são determinados em última análise pelo que o Process Manager Process Engineer WANTS, que geralmente são (mas não sempre) dentro da capacidade da placa de identificação do equipamento. Se você estiver trabalhando dentro dos limites operacionais, e você está no campo da otimização de processos, então sim, a análise estatística é mais amplamente utilizada e pode oferecer uma boa visão. Dependendo da variabilidade do seu processo, de quão bem o seu sistema de controle está configurado e da homogeneidade do seu produto de alimentação, os limites de controle superiores que são selecionados variam. Um bom ponto de partida é o ponto de operação ideal (por exemplo, 100 m3hr), então use uma quantidade sensível de dados históricos para calcular um desvio padrão e faça seu limite superior 100 1 dev padrão e seu limite inferior de 100 a 1 dev. Esta não é uma regra dura e rápida, mas é um ponto de partida sensível. Respondeu em 7 de fevereiro às 12: 12h. - Isso é errado, como você suspeitava. É correto se os próprios pesos sejam freqüências. Mas, embora as frequências passem a computar as porcentagens neste caso, os pesos, embora não especificados, não são freqüências de ocorrência, mas algo mais a ver com quotdata volumequot. Então esta é a resposta errada. Ndash Rex Kerr 8 de setembro 15 às 17:50 As fórmulas estão disponíveis em vários lugares, incluindo a Wikipedia. A chave é notar que isso depende do que os pesos significam. Em particular, você receberá respostas diferentes se os pesos forem frequências (ou seja, você está apenas tentando evitar a adição de sua soma total), se os pesos forem, de fato, a variância de cada medida, ou se eles são apenas alguns valores externos que você impõe seus dados. No seu caso, parece superficialmente que os pesos são frequências, mas eles não são. Você gera seus dados de freqüências, mas não é uma simples questão de ter 45 registros de 3 e 15 registros de 4 em seu conjunto de dados. Em vez disso, você precisa usar o último método. (Na verdade, tudo isso é lixo - você realmente precisa usar um modelo mais sofisticado do processo que está gerando esses números. Aparentemente, você não tem algo que cuspa. Números normalmente distribuídos, portanto, caracterizar o sistema com o desvio padrão é Não é a coisa certa a fazer.) Em qualquer caso, a fórmula para a variância (a partir da qual você calcula o desvio padrão no modo normal) com pesos de confiabilidade é onde x sum wi xi sum wi é a média ponderada. Você não tem uma estimativa para os pesos, o que eu suponho que você deseja tomar para ser proporcional à confiabilidade. Tomar porcentagens do jeito que você está, vai tornar a análise complicada, mesmo que elas sejam geradas por um processo de Bernoulli, porque se você conseguir uma pontuação de 20 e 0, você tem porcentagem infinita. A ponderação pelo inverso do SEM é uma coisa comum e às vezes ótima a ser feita. Você talvez use uma estimativa bayesiana ou um intervalo de pontuação de Wilson. Respondeu 8 de setembro 15 às 17:48 1. A discussão dos diferentes significados dos pesos era o que eu estava procurando neste tópico o tempo todo. É um contributo importante para todas as perguntas deste site sobre as estatísticas ponderadas. (Estou um pouco preocupado com as observações entre parênteses sobre distribuições normais e desvios padrão, porém, porque sugerem incorretamente que os SDs não usam fora de um modelo com base na normalidade.) Ndash whuber 9830 Set 8 15 at 18:23 whuber - Bem, Teorema do limite central para o resgate, é claro. Mas, para o que o OP estava fazendo, tentar caracterizar esse conjunto de números com um desvio padrão e médio parece extremamente desaconselhável. E em geral, para muitos usos, o desvio padrão acaba atraindo um em um falso sentimento de compreensão. Por exemplo, se a distribuição é qualquer coisa que não seja normal (ou uma boa aproximação), depender do desvio padrão lhe dará uma má idéia da forma das caudas, quando é exatamente aquelas caudas nas quais você provavelmente se preocupa em estatística Teste. Ndash Rex Kerr 8 de setembro 15 às 19:44 RexKerr Podemos culpar o desvio padrão se as pessoas colocam interpretações nele que são imerecidas. Mas deixe-os afastar-se da normalidade e considerar a classe muito mais ampla de distribuições unimodais contínuas e simétricas com variância finita (por exemplo). Então, entre 89 e 100 por cento da distribuição está dentro de dois desvios padrão. Isso geralmente é bastante útil para saber (e 95 está bastante no meio, de modo que nunca mais do que cerca de 7) com muitas distribuições comuns, o aspecto de simetria deixando de mudar muito (por exemplo, veja o exponencial, por exemplo). Ctd ndash Glenb 9830 Oct 1 15 em 23: 57 A média móvel ponderada exponencial (EWMA) é uma estatística para monitorar o processo que mede os dados de uma maneira que dá menos e menos peso aos dados à medida que eles são removidos no tempo. Comparação do gráfico de controle de Shewhart e das técnicas de controle de EWMA Para a técnica de controle de gráfico de Shewhart, a decisão sobre o estado de controle do processo a qualquer momento, (t) depende apenas da medida mais recente do processo e, claro, O grau de veracidade das estimativas dos limites de controle de dados históricos. Para a técnica de controle EWMA, a decisão depende da estatística EWMA, que é uma média ponderada exponencialmente de todos os dados anteriores, incluindo a medida mais recente. Através da escolha do fator de ponderação, (lambda), o procedimento de controle EWMA pode ser sensível a uma deriva pequena ou gradual no processo, enquanto o procedimento de controle Shewhart só pode reagir quando o último ponto de dados está fora de um limite de controle. Definição de EWMA A estatística que é calculada é: mbox t lambda Yt (1-lambda) mbox ,,, mbox ,,, t 1,, 2,, ldots ,, n. Onde (mbox 0) é a média dos dados históricos (alvo) (Yt) é a observação no tempo (t) (n) é o número de observações a serem monitoradas incluindo (mbox 0) (0 Interpretação do gráfico de controle EWMA O vermelho Os pontos são os dados brutos, a linha irregular é a estatística EWMA ao longo do tempo. O gráfico nos diz que o processo está no controle porque todos (mbox t) se situam entre os limites de controle. No entanto, parece haver uma tendência para cima nos últimos 5 Períodos.

No comments:

Post a Comment