Thursday 28 September 2017

Glidande Medelvärde Process Stationärt


Tänk på den oändliga ordningen MA process definierad av yt epsilont en epsilon epsilon, där a är en konstant och epsilont s är iid N 0, v slumpmässig variabel. Vad är det bästa sättet att visa att yt är nonstationary Jag vet att jag måste titta Vid de karakteristiska rötterna hos egenskaperna polynom och sedan bedöma huruvida de är utanför enhetens cirkel, men vad är det bästa sättet att närma sig detta problem Ska jag försöka skriva om den oändliga ordningen MA-processen som en ändlig ordning AR-process eller är det Lättare att arbeta MA process. asked okt 19 13 på 21 11.What är stationär autoregressiv AR, flytta genomsnittlig MA och stationära blandade ARMA processer. Stationsautoregressiv AR-process Stationära autoregressiva AR-processer har teoretiska autokorrelationsfunktioner ACF som förfallna mot noll istället Avskärning till noll Autokorrelationskoefficienterna kan alternera i tecken ofta eller visa ett vågliknande mönster, men i alla fall svänger de bort mot noll. I kontrast AR-processen Ses med order p har teoretiska partiella autokorrelationsfunktioner PACF som sänks till noll efter fördröjning p Lagslängden för den slutliga PACF-spetsen motsvarar AR-ordningen i processen, p Moving-medel MA-processen De teoretiska ACF-värdena för MA-rörliga genomsnittsprocesser med order q Avskurna till noll efter lag q, MA-ordern i processen. Men deras teoretiska PACF sönder sig mot noll. Laglängden för den slutliga ACF-spetsen motsvarar MA-ordern i processen. Q Stationär blandad ARMA-process. Stationära blandade ARMA-processer visar en blandning Av AR - och MA-kännetecken Både den teoretiska ACF och PACF svänger av mot noll. Kopyright 2016 Minitab Inc Alla rättigheter reserverade. A Kort introduktion till modern tidsserie. Definition En tidsserie är en slumpmässig funktion xt av ett argument t i en uppsättning T Med andra ord är en tidsserie en familj av slumpmässiga variabler x t-1 xtxt 1 som motsvarar alla element i uppsättningen T, där T är tänkt att vara en uppsägbar, oändlig uppsättning. Definition En observerad tid seri Es tte T o T anses vara en del av en realisering av en slumpmässig funktion xt En oändlig uppsättning möjliga realisationer som kan ha observerats kallas ett ensemble. För att ställa saker snabbare är tidsserien eller slumpmässig funktion en riktig funktion Xw, t av de två variablerna w och t, ​​där wW och tT Om vi ​​fixar värdet på w har vi en verklig funktion xtw av tiden t, vilket är en realisering av tidsserierna Om vi ​​fixar värdet på t, Då har vi en slumpmässig variabel xwt För en given tidpunkt finns en sannolikhetsfördelning över x Således kan en slumpmässig funktion xw, t betraktas som antingen en familj av slumpmässiga variabler eller som en familj av realisationer. Definition Vi definierar fördelningsfunktionen Av den slumpmässiga variabeln w givet t 0 som P oxx På samma sätt kan vi definiera fogfördelningen för n slumpmässiga variabler. Punkterna som skiljer tidsserieanalys från vanliga statistiska analyser är följande 1 Beroendet mellan observationer vid olika kronologier Giska tidspunkter spelar en viktig roll Med andra ord är observationsordningen viktig. I vanlig statistisk analys antas att observationerna är ömsesidigt oberoende 2 Domänen av t är oändlig 3 Vi måste göra en inferens från en realisering Förverkligandet Av den slumpmässiga variabeln kan endast observeras en gång vid varje tidpunkt I multivariatanalys har vi många observationer om ett begränsat antal variabler Denna kritiska skillnad kräver att stationaritet antas. Definitionen Slumpmässig funktion xt sägs vara strikt stillastående om alla Ändamålsenliga distributionsfunktioner som definierar xt förblir densamma, även om hela gruppen av punkter t 1 t 2 tn förskjuts längs tidsaxeln Det är, om. för alla heltal t 1 t 2 tn och k Grafiskt kan man visa realiseringen av En strikt stationär serie som inte bara har samma nivå i två olika intervaller, men också samma fördelningsfunktion, helt ner till parametrarna Som definierar det. Antagandet av stationäritet gör våra liv enklare och billigare. Utan stationäritet skulle vi behöva prova processen ofta vid varje tidpunkt för att bygga upp en karaktärisering av distributionsfunktionerna i den tidigare definitionen. Stationäritet innebär att vi kan begränsa vår Uppmärksamhet på några av de enklaste numeriska funktionerna, dvs distributionsmomentet De centrala stunderna ges av Definition i Medelvärdet av tidsserierna t är det första ordermomentet ii. Autokovariansfunktionen av t är det andra ögonblicket Om medelvärdet Om ts då har du variansen av xt Vi kommer att använda för att ange autokovarians av en stationär serie, där k anger skillnaden mellan t och s iii Autokorrelationsfunktionen ACF av t är. Vi kommer att använda för att beteckna autokorrelationen av En stationär serie där k anger skillnaden mellan t och s iv Den partiella autokorrelationen PACF f kk är korrelationen mellan zt och ztk efter borttagning Ng deras ömsesidiga linjära beroenden av de intervenerande variablerna zt 1 zt 2 zt k-1 Ett enkelt sätt att beräkna den partiella autokorrelationen mellan zt och ztk är att köra de två regressionerna. Där beräknar korrelationen mellan de två återstående vektorerna eller, efter mätning av Variabler som avvikelser från deras medel kan den partiella autokorrelationen hittas som LS-regressionskoefficienten på zt i modellen. Där punkten över variabeln indikerar att den mäts som en avvikelse från dess medelvärde v. Yule-Walker-ekvationerna ger en viktig Förhållandet mellan de partiella autokorrelationerna och autokorrelationerna Multiplicera båda sidor av ekvation 10 av zt kj och ta förväntningar Denna operation ger oss följande skillnadsekvation i autocovariances. or, när det gäller autokorrelationer. Denna till synes enkla representationen är verkligen ett kraftfullt resultat Namely , För j 1,2 k kan vi skriva hela systemet av ekvationer, kända som Yule-Walker ekvationer. Från linjär algebra du k Nu när matrisen av rs är av full rang Det är därför möjligt att tillämpa Cramer s regel successivt för k 1,2 för att lösa systemet för de partiella autokorrelationerna De tre första är Vi har tre viktiga resultat på strikt stationära serier. Implikationen är Att vi kan använda någon ändlig realisering av sekvensen för att uppskatta medelvärdet Andra om t är strikt stillastående och E t 2 då. Implikationen är att autokovariansen bara beror på skillnaden mellan t och s, inte deras kronologiska punkt i tiden. Vi kunde Använd några intervall i autokovarians beräkning så länge som tiden mellan dem var konstant. Vi kan använda någon ändlig realisering av data för att uppskatta autokovarianerna. För det tredje ges autokorrelationsfunktionen vid strikt stationäritet. Implikationen är att autokorrelationen bara beror på skillnaden mellan t och s också, och igen kan de uppskattas genom någon ändlig realisering av data. Om vårt mål är att Uppskattningsparametrar som beskrivs av möjliga realisationer av tidsserierna, är kanske strikt stationärhet för restriktiv. Till exempel, om medelvärdena och covariancesna av xt är konstanta och oberoende av den kronologiska punkten i tiden, kanske är det inte viktigt för oss Att distributionsfunktionen är densamma för olika tidsintervaller. Definition En slumpmässig funktion är stationär i bred mening eller svagt stationär eller stationär i Khinchins betydelse eller kovarians stationär om m 1 tm och m 11 t, s. Inte i sig medför svag stationaritet Svag stationäritet betyder inte strikt stationaritet Stark stationäritet med E t 2 innebär svag stationaritet. Goda teoremer handlar om frågan om nödvändiga och tillräckliga förutsättningar för att göra inferens från en enda realisering av en tidsserie. Ner till antagandet av svag stationaritet. Ordningen Om t är svagt stillastående med medelm och covariansfunktion, då. That Är för någon given e 0 och h 0 det finns något tal T o så att för alla TT o om och endast om. Detta nödvändiga och tillräckliga villkor är att autocovariances dör ut, i vilket fall provvärdet är en konsekvent estimator för Befolkningen betyder. Corollary Om t är svagt stationär med E tkxt 2 för någon t, och E tkxtxtskxts är oberoende av t för något heltal s, då. if och endast om where. A. följd av följd är antagandet att xtxtk är svagt Stationär Den ergodiska stämningen är inte mer än en lag av stora siffror när observationerna är korrelerade. Man kan nu fråga om de praktiska konsekvenserna av stationaritet. Den vanligaste användningen av tidsserietekniker är att modellera makroekonomiska data, både teoretiska och Ateoretisk Som ett exempel på det tidigare kan man ha en multiplikator-acceleratormodell För att modellen ska vara stationär måste parametrarna ha vissa värden Ett test av modellen är då att samla relevanta d Ata och uppskatta parametrarna Om uppskattningarna inte överensstämmer med stationaritet, måste man ompröva antingen den teoretiska modellen eller statistikmodellen eller båda. Vi har nu tillräckligt med maskiner för att börja prata om modelleringen av univariata tidsseriedata. Det finns fyra Steg i processen 1 byggnadsmodeller från teoretisk och experientiell kunskap 2 identifiera modeller baserade på den data observerade serien 3 montera modellerna uppskattar parametrarna i modellen s 4 kontrollera modellen Om vi ​​inte är nöjda i det fjärde steget återvänder vi till steg En Processen är iterativ tills ytterligare kontroll och respektering ger ingen ytterligare förbättring av resultaten Diagrammatiskt. Definitions Några enkla operationer inkluderar följande Backshift-operatören Bx tx t-1 Framföraren Fx txt 1 Differensoperatören 1 - B xtxt - x t - 1 Skillnadsoperatören beter sig på ett sätt som överensstämmer med konstanten i en oändlig serie. Dvs dess invers är gränsen för En oändlig summa Namnlösa -1 -1 B 1 1 1-B 1 BB 2 Integreringsoperatören S -1 Eftersom det är invers av skillnadsoperatören, tjänar integrationsoperatören att konstruera summan. MODUL BYGGNING I detta avsnitt vi Ge en kort översikt över de vanligaste typerna av tidsseriemodeller. På grundval av en s kännedom om datagenereringsprocessen väljer man en klass av modeller för identifiering och uppskattning från de möjligheter som följer. Definition Anta att Ex tm är oberoende av t En modell som med egenskaperna kallas den autoregressiva modellen av order p, ARp. Definition Om en tidsberoende variabel stokastisk process t uppfyller så sägs t att det uppfyller Markov-egenskapen På LHS är förhoppningen betingad av oändlig historia Av xt På RHS är det villkorat endast en del av historiken Från definitionerna ser en AR p-modell att tillgodose Markov-egenskapen Med hjälp av backshift-operatören kan vi skriva vår AR-modell som. Ordningen En nödvändig och tillräcklig Nt villkor för AR p-modellen att vara stationär är att alla polynomernas rötter ligger utanför enhetens cirkel. Exempel 1 Tänk på AR 1 Den enda roten av 1 - f 1 B 0 är B 1 f 1 Villkoret för Stationäritet kräver det. Om den observerade serien kommer att framstå som väldigt frenetisk, anser du att det i den vita ljudsignalen har en normal fördelning med nollvärde och en varians av en Observationsomkopplaren undertecknar med nästan varje observation. Om den andra Hand, då kommer den observerade serien att vara mycket jämnare. I denna serie tenderar en observation att vara över 0 om dess föregångare var över nollvariationen av et är se 2 för alla t. Variationen av xt när den har noll betyder, ges av Eftersom serien är stationär kan vi skriva Hence. The autocovariance-funktionen i en AR 1-serie är att förutse utan förlust av generality m 0. För att se hur det ser ut utifrån AR-parametrarna kommer vi att utnyttja det faktum att vi kan Skriv xt enligt följande. Multiplikeras med x tk och tar expec Tations. Note att autocovariances dö ut som k växer Autocorrelation funktionen är autokovariansen dividerad med variansen av den vita brus termen Eller, Använda tidigare Yule-Walker formler för de partiella autokorrelationer vi har. För en AR 1 dör autokorrelationerna ut Exponentiellt och de partiella autokorrelationerna uppvisar en spik vid en lag och är noll därefter. Exempel 2 Tänk på AR 2 Det associerade polynomet i lagoperatören är. Rötterna kan hittas med hjälp av den kvadratiska formeln Rötterna är. När rötterna är reella och Följaktligen kommer serien att minska exponentiellt på grund av en chock När rötterna är komplexa och serierna kommer att visas som en dämpad teckenvåg. Stationsarbetssatsen ställer följande villkor på AR-koefficienterna. Autokovariansen för en AR 2-process med Noll medelvärde, is. Dividing genom variansen av xt ger autokorrelationsfunktionen Eftersom vi kan skriva På liknande sätt för andra och tredje autokorrelationer. Den andra Autokorrelationer löses för rekursivt Deras mönster styrs av rötterna i den andra ordningens linjära skillnadsekvation. Om rötterna är verkliga kommer autokorrelationerna att minska exponentiellt. När rötterna är komplexa kommer autokorrelationerna att visas som en dämpad sinusvåg. Använda Yule-Walker Ekvationer, de partiella autokorrelationerna är. Again, autokorrelationerna dämpar långsamt. Den delvisa autokorrelationen å andra sidan är ganska distinkt. Den har spikar på en och två lags och är noll därefter. Stycket Om xt är en stationär AR p-process kan det vara Ekvivalent skrivet som en linjär filtermodell Det vill säga att polynomet i backshift-operatören kan inverteras och ARp skrivs som ett glidande medelvärde av oändlig ordning istället. Exempel. Antag att zt är en AR 1-process med nollvärde. Vad är sant för strömmen Period måste också vara sant för tidigare perioder Således genom rekursiv substitution kan vi skriva. Square båda sidor och ta förväntningar. Höger sida försvinner som K sedan f 1 Därför sammanfattar summan till zt i kvadratiska medelvärden Vi kan skriva om AR p-modellen som ett linjärt filter som vi vet är stationära. Autokorrelationsfunktionen och Partiell Autocorrelation Generellt Anta att en stationär serie zt med medel noll är känd för att Vara autregressiv Autokorrelationsfunktionen för en AR p hittas genom att ta förväntningar på. och dela genom variansen av z t. Detta berättar för oss att rk är en linjär kombination av tidigare autokorrelationer. Vi kan använda detta vid tillämpning av Cramer s regel till jag I lösningen för f kk I synnerhet kan vi se att detta linjära beroendet kommer att orsaka f kk 0 för kp Denna särskiljningsegenskap för autoregressiva serier kommer att vara mycket användbar när det gäller identifiering av en okänd serie. Om du antingen har MathCAD eller MathCAD Explorer då Du kan experimentera interaktivt med några av de AR p idéer som presenteras här. Flytta genomsnittsmodeller Tänk på en dynamisk modell där serien av intresse bara beror på någon del av t Han historia av den vita brus termen Diagrammatiskt kan detta representeras som. Definition Anta att det är en okorrelerad sekvens av iid slumpmässiga variabler med noll medelvärde och ändlig varians Därefter ges en rörlig genomsnittsprocess av order q, MA q, av. Theorem En rörelse Medelprocessen är alltid stationär Bevis I stället för att börja med ett generellt bevis kommer vi att göra det för ett visst fall. Antag att zt är MA 1. Såklart, vid har noll medel och ändlig varians. Medelvärdet av zt är alltid noll. Autokonferensen kommer att ges Genom. Du kan se att medelvärdet av slumpmässig variabel inte beror på tid på något sätt. Du kan också se att autokovariansen bara beror på offset s, inte på var i serien vi börjar. Vi kan bevisa samma resultat mer generellt Genom att börja med, som har den alternativa rörliga genomsnittliga representationen. Överväg först variansen av z t. Med rekursiv substitution kan du visa att detta är lika med. Summan som vi vet är en konvergerande serie så variansen är f Init och är oberoende av tiden. Kovariaderna är till exempel. Du kan också se att de automatiska covarianserna bara beror på de relativa punkterna i tid, inte den kronologiska punkten i tiden. Vår slutsats från allt detta är att en MA-process är stillastående. Generell MA q process autokorrelationsfunktionen ges av. Den partiella autokorrelationsfunktionen kommer att dö ut smidigt. Du kan se detta genom att invertera processen för att få en AR-process. Om du har antingen MathCAD eller MathCAD Explorer kan du experimentera interaktivt med några av de MA q idéer som presenteras här. Mixed Autoregressive - Moving Average Models. Definition Anta att det är en okorrelerad sekvens av iid slumpmässiga variabler med noll medelvärde och ändlig varians. Sedan ges en autogegressiv, glidande genomsnittsprocess av order p, q, ARMA p, q Av. Den autoregressiva operatörens rötter måste alla ligga utanför enhetscirkeln. Antalet okända är pq. 2 P och q är uppenbara. 2 innehåller processens nivå, m och th E variansen av det vita bruseterminalen, sa 2. Antag att vi kombinerar våra AR - och MA-representationer så att modellen är. och koefficienterna normaliseras så att bo 1 Då kallas denna representation en ARMA p, q om rötterna på 1 Alla ligger utanför enhetens cirkel. Antag att yten mäts som avvikelser från medelvärdet så att vi kan släppa ao då autokovariansfunktionen härleds från. if jq, då MA-termerna faller ut i förväntan att ge. Det är så att autokovariansfunktionen ser ut Som en typisk AR för lags efter q dör de smidigt efter q, men vi kan inte säga hur 1,2, q kommer att se. Vi kan också undersöka PACF för denna klass av modell. Modellen kan skrivas som. Vi kan skriva detta Som en MA inf process. which antyder att PACFs s ut långsamt Med vissa aritmetik kunde vi visa att detta händer först efter de första p-spikar som AR-parten bidrar. Empirisk lag I själva verket kan en stationär tidsserie väl representeras av P 2 och q 2 Om ditt företag är att tillhandahålla En god approximation till verkligheten och godhet av passform är ditt kriterium då en förlorad modell är att föredra Om ditt intresse är prediktiv effektivitet är den parsimoniska modellen föredragen. Experiment med de ARMA-idéer som presenteras ovan med ett MathCAD-arbetsblad. Utvecklingsbaserade integrera rörliga genomsnittsmodeller. Filter AR-filter Integrera filter. Ibland är processen eller serierna som vi försöker att modellera inte stationära i nivåer Men det kan vara stationärt, t ex första skillnader Det är i sin ursprungliga form kanske inte autocovariances för serien oberoende Av den kronologiska punkten i tid Men om vi bygger en ny serie som är de första skillnaderna i originalserien, uppfyller denna nya serie definitionen av stationaritet. Detta är ofta fallet med ekonomiska data som är mycket trended. Definition Anta att zt är Inte stationär, men zt-z t-1 uppfyller definitionen av stationaritet Vidare har vid den vita brusbegreppet ändamål och varians Vi kan skriva Modellen som. Den här heter en ARIMA p, d, q modell p identifierar AR-operatörens ordning, d identifierar strömmen q identifierar MA-operatörens ordning Om rötterna på f B ligger utanför enhetens cirkel så kommer vi Kan skriva om ARIMA p, d, q som ett linjärt filter Jag kan skriva som en MA Vi reserverar diskussionen om detekteringen av enhetsrotsar för en annan del av föreläsningsanteckningarna. Tänk på ett dynamiskt system med xt som ingångsserie Och yt som en produktionsserie Diagrammatiskt har vi. Dessa modeller är en diskret analogi av linjära differentialekvationer. Vi antar följande relation. where b anger en ren fördröjning. Minns att 1-B gör denna substitution, kan modellen skrivas. Om koefficientpolynomet På yt kan inverteras då kan modellen skrivas som. VB är känd som impulsresponsfunktionen Vi kommer att stöta på denna terminologi igen i vår senare diskussion om vektorautoregressiva cointegrations - och felkorrigeringsmodeller. MODELL IDENTIFIKATION Att bestämma D på en klass av modeller måste man nu identifiera ordningen för de processer som genererar data. Det är man måste göra bästa gissningar om AR-och MA-processernas ordning för att driva den stationära serien. En stationär serie kännetecknas helt av sin genomsnittliga Och autocovariances Av analytiska skäl arbetar vi vanligtvis med autokorrelationer och partiella autokorrelationer. Dessa två grundläggande verktyg har unika mönster för stationära AR - och MA-processer. Man kan beräkna provuppskattningar av autokorrelations - och partiella autokorrelationsfunktioner och jämföra dem med tabulerade resultat för standardmodeller. Exempel Autocovariance Function. Sample Autocorrelation Function. The provpartiella autokorrelationer kommer att vara. Utta autokorrelationerna och partiella autokorrelationer är ganska enkla i princip Anta att vi har en serie zt med nollvärde, vilket är AR 1 Om vi ​​skulle köra regression av zt 2 På zt 1 och zt vi förväntar oss att finna att koefficienten på zt inte var annorlunda än ze Ro eftersom denna partiella autokorrelation borde vara noll. Å andra sidan bör autokorrelationerna för denna serie minska exponentiellt för att öka lags se AR 1-exemplet ovan. Antag att serien verkligen är ett rörligt medelvärde. Autokorrelationen ska vara noll överallt men vid Den första fördröjningen Den partiella autokorrelationen borde dö ut exponentiellt Till och med från vår mycket överskridande trumma genom grunderna i tidsserieanalysen är det uppenbart att det finns en dualitet mellan AR - och MA-processer. Denna dualitet kan sammanfattas i följande tabell.

No comments:

Post a Comment