Titel Mai 2005
Titel:
Peter J. Brockwell, Richard A. Davis; Introduction to Time Series and
Forecasting;
Verlag Berlin, Heidelberg, New York 2002; ISBN 0-387-95351-5.
Reihe: Springer Texts in Statistics.
Incl. CD-Rom.
Inhalt:
Preface
1. Introduction
1.1. Examples of Time Series
1.2. Objectives of Time Series Analysis
1.3. Some Simple Time Series Models
1.3.1. Some Zero-Mean Models
1.3.2. Models with Trend and Seasonality
1.3.3. A General Approach to Time Series Modeling
1.4. Stationary Models and the Autocorrelation Function
1.4.1. The SampIe Autocorrelation Function
1.4.2. A Model for the Lake Huron Data
1.5. Estimation and Elimination ofTrend and Seasonal Components
1.5.1. Estimation and Elimination ofTrend in the Absence of Seasonality
1.5.2. Estimation and Elimination of Both Trend and Seasonality
1.6. Testing the Estimated Noise Sequence Problems
2. Stationary Processes
3. ARMA Models
4. Spectral Analysis
5. Modeling and Forecasting with ARMA Processes
6. Nonstationary and Seasonal Time Series Models
7. Multivariate Time Series
7.1. Examples
7.2. Second-Order Properties of Multivariate Time Series
7.3. Estimation of the Mean and Covariance Function
7.3.1. Estimation of µ
7.3.2. Estimation of
G(h)7.3.3. Testing for Independence ofTwo Stationary Time Series
7.3.4. Bartlett's Formula
7.4. Multivariate ARMA Processes
7.4.1. The Covariance Matrix Function of a Causal ARMA Process
7.5. Best Linear Predictors of Second-Order Random Vectors
7.6. Modeling and Forecasting with Multivariate AR Processes
7.6.1. Estimation für Autoregressive Processes Using Whittle's Algorithm
7.6.2. Forecasting Multivariate Autoregressive Processes
7.7. Cointegration
Problems
8. State-Space Models
8.1. State-Space Representations
8.2. The Basic Structural Model
8.3. State-Space Representation of ARIMA Models
8.4. The Kalman Recursions
8.5. Estimation For State-Space Models
8.6. State-Space Models with Missing Observations
8.7. The EM AIgorithm
8.8. Generalized State-Space Models
8.8.1. Parameter-Driven Models
8.8.2. Observation-Driven Models
Problems
9. Forecasting Techniques
9.1. The ARAR Algorithm
9.1.1. Memory Shortening
9.1.2. Fitting a Subset Autoregression
9.1.3. Forecasting
9.1.4. Application ofthe ARAR Algorithm
9.2. The Holt-Winters Algorithm
9.2.1. The Algorithm
9.2.2. Holt-Winters and ARIMA Forecasting
9.3. The Holt-Winters Seasonal Algorithm
9.3.1. The Algorithm
9.3.2. Holt-Winters Seasonal and ARIMA Forecasting
9.4. Choosing a Forecasting Algorithm
Problems
10. Further Topics
10.1. Transfer Function Models
10.1.1. Prediction Based on a Transfer Function Model
10.2. Intervention Analysis
10.3. Nonlinear Models
10.3.1. Deviations from Linearity
10.3.2. Chaotic Deterministic Sequences
10.3.3. Distinguishing Between White Noise and iid Sequences
10.3.4. Three Useful Classes of Nonlinear Models
10.3.5. Modeling Volatility
10.4. Continuous- Time Models
10.5. Long-Memory Models
Problems
A. Random Variables and Probability Distributions
A.1. Distribution Functions and Expectation
A.2. Random Vectors
A.3. The Multivariate Normal Distribution Problems
B. Statistical Complements
B.I. Least Squares Estimation
B.I.I. The Gauss-Markov Theorem
B.1.2. Genera1ized Least Squares
B .2. Maximum Likelihood Estimation
B.2.I. Properties ofMaximum Likelihood Estimators
B.3. Confidence Intervals
B.3.I. Large-Sample Confidence Regions
BA. Hypothesis Testing
BA.I. Error Probabilities
BA.2. Large-Sample Tests Based on Confidence Regions
C. Mean Square Convergence
C.1. The Cauchy Criterion
D.
An ITSM Tutorial
D.1.1. Running ITSM
D.2. Preparing Your Data for Modeling
D.2.I. Entering Data
D.2.2. Information
D.2.3. Filing Data
D.2A. Plotting Data
D.2.5. Transforming Data
D.3. Finding a Model for Your Data
D.3.I. Autofit
D.3.2. The SampIe ACF and PACF
D.3.3. Entering a Model
D.3A. Preliminary Estimation
D.3.5. The AICC Statistic
D.3.6. Changing Your Model
D.3.7. Maximum Likelihood Estimation
D.3.8. Optimization Results
DA. Testing Your Model
DA.I. Plotting the Residuals
DA.2. ACF/PACF of the Residuals
DA.3. Testing for Randomness of the Residuals
D.5. Prediction
D.5 .1. Forecast Criteria
D.5.2. Forecast Results
D.6. Model Properties
D.6.l. ARMA Models
D.6.2. Model ACF, PACF
D.6.3. Model Representations
D.6.4. Generating Realizations of a Random Series
D.6.5. Spectral Properties
D.7. Multivariate Time Series
References
Index
Kurzreferenz:
Zunächst wird die Betrachtung einer Zeitreihe als Familie von Zufallsvariablen erklärt. Eine konkrete
Beobachtungsreihe ist dann eine entsprechende Realisierung. Während ältere einführende Lehrbücher
meist von der Beobachtungsreihe ausgehen, wird hier konsequent der zugrundeliegende Zufallsprozeß
in den Vordergrund gestellt.
Beispielhaft werden zunächst wichtige Prozesse, wie unabhängiges identisch verteiltes Rauschen (IID
Noise) und weißes Rauschen (White Noise) erklärt, welche die Ausgangsbasis für andere wichtige
Prozesse darstellen. Als nächstes werden die wichtigen Begriffe der Autokovarianz und der Auto-
korrelation, sowie der Begriff der Stationarität erläutert. Leider wird in Kapitel 1.5 keine ausführ-
liche Begründung der dort angegebenen Schätzmethoden angegeben. Stattdessen wird auf den wei-
teren Band Brockwell, Davis; Time Series: Theory and Methods, verwiesen. Dies ist einigermaßen
unangenehm, da man das Gefühl hat, es wird einem etwas wichtiges vorenthalten, so daß man ge-
zwungen ist, auch diesen Band zu kaufen (s. unten [1] ).
In Kapitel zwei werden die Grundeigenschaften der Autokorrelationsfunktion und des (stark) statio-
nären Prozesses angeführt. Es erfolgt ein einführendes Studium der Moving-Average Prozesse, sowie
der autoregressiven und der autoregressive moving-average Prozesse (ARMA). Es wird gezeigt,
wie die Autokovarianzfunktion und der Autokorrelationsfunktion durch die entsprechenden Stichpro-
benfunktionen geschätzt werden können.
In Kapitel drei werden einfache Vorhersagemodelle, insbesondere Vorhersagen in Bezug auf den
ARMA Prozess besprochen. Dabei werden die wichtigen Begriffe Kausalität und Invertierbarkeit
erläutert, sowie die Bedingungen für die Existenz einer Lösung für den ARMA(p,q) Prozess aufge-
zeigt.
In den folgenden Kapiteln werden verschiedene Schätzer für die Koeffizienten, sowie die Ord-
nungen besprochen. Unter anderem sind dies Yule-Walker Schätzer für die Kovarianzen eines
ARMA-Prozesses, die Likelihood-Funktion für Gauss-Prozesse. Weitere Themen sind diejeni-
gen Prozesse, die nach mehrfacher Anwendung des Differenzen-Operators einen ARMA-Prozess
darstellen (ARIMA), saisonale ARMA-Prozesse (SARMA). Des weiteren werden multivariate
Prozesse und zugehörige Schätzer dargestellt.
Lesbarkeit:
Die Darstellung folgt nahezu ausschließlich dem Prinzip der Betrachtung der Zeitreihe vom Begriff
des Zufallsprozesses her. Der Text ist durchweg gut lesbar, enthält jedoch eine für eine Einführung
vergleichsweise ungeheure Fülle von Information. Unangenehm ist die Tatsache, daß einige (wenige)
Male im Text auf den mehr theoretischen Band 'Time Series: Theory and Methods' der beiden Au-
toren verwiesen wird ([1]). Man ist gezwungen, sich diesen Band zu beschaffen, wenn man die In-
formation nachlesen will.
Dies ist umso verwunderlicher, da die Autoren glaubten, die grundlegenden Begriffe der Stochastik,
wie Verteilungsfunktion, Mittelwert, Varianz etc.in einen Anhang darlegen zu müssen. Dies steht aber
in jedem vernünftigen Lehrbuch über Wahrscheinlichkeitsrechnung, das einer sowieso schon hat, wenn
er sich an solche Lektüre, wie das vorliegende Buch macht. Man hätte besser diesen Raum benutzt,
um Verweise auf ein anderes Buch (das auch noch von denselben Autoren stammt!) zu vermeiden.
Zum Buch gehört eine CD-Rom mit dem Programm ITSM in einer Student version, die einige wenige
Restriktionen besitzt. So können nur bis zu drei Projekte gleichzeitig geöffnet werden, und die Zeit-
reihen können maximal 250 Werte umfassen. Dies genügt sogar für manchen professionellen Einsatz.
Auf die beigefügten Beispiel-Files wird im Text ständig verwiesen, so daß die Autoren wohl davon
ausgehen, daß wer sich mit ihrem Buch befaßt, auch einen Computer hat. Die Funktionalität des Pro-
gramms ist umfassend, der Gebrauch wird in einem Anhang ausführlich erklärt. Ein Update auf das
reguläre Programm ist über die Autoren erhältlich.
Das Buch ist absolut empfehlenswert, ist jedoch nur zusammen mit seinem Schwester-Band [1] eine
wirklich runde Sache.
Zielgruppe:
Mathematiker, Statistiker, Soziologen, Volkswirtschaftler und Bankfachleute. Studenten der Mathe-
matik und Statistik. Fachfremde Wissenschaftler, die sich intensiv mit den neueren Methoden der
Zeitreihenanalyse befassen wollen, werden kaum um dieses Buch herum kommen. Mathematiker
werden eher nur mit beiden Bänden vollkommen zufrieden sein.
Beide Bücher wurden vom Verlag im Jahr 2005 im Zuge einer Verkaufsaktion verbilligt angeboten.
Wer nicht zugegriffen hat, ist fast zu bedauern.
Weitere Bücher zum Themenkreis:
Es gibt eine Fülle von Büchern zu diesem Thema. Hier eine Auswahl.
[1] P. J. Brockwell, R. A. Davis; Time Series: Theory and Methods; Springer 1991;
ISBN 0-387-97429-6. [Companion-Band. Mehr theoretisch. Wird hier demnächst besprochen]
[2] Ulf Grenander, Murray Rosenblatt; Statistical Analysis of Stationary Time Series; Chelsea;
ISBN 0-8284-0320-1. [Klassiker zu diesem Thema]
[3] Christopher Chatfield; Analyse von Zeitreihen; Carl Hanser Verlag (deutsche Lizenzausgabe) 1982;
ISBN 3-446-13597-9. [Gute Einführung. Breiten Raum nimmt die Darstellung der beschreibenden
Techniken ein].
[4] Bernd Leiner; Einführung in die Zeitreihenanalyse; Oldenbourg 1991; ISBN 3-486-21906-5.
[Das Buch wendet sich vor allem an angehende Wirtschaftswissenschaftler und praktizierende
Ökonomen, wie der Autor im Vorwort betont. Siehe auch Buchbesprechung des Folgemonats!]
[5] Helmut Lütkepohl; Introduction to Multiple Time Series Analysis; Springer 1993;
ISBN 3-540-56940-5. [Ausführliche Darstellung auf über 500 Seiten, was im hier besprochenen
Titel in Kapitel 7 behandelt wird]
[6] Murray Rosenblatt; Stationary Sequences and Random Fields; Birkhäuser 1985;
ISBN 3-7643-3264-6. [Umfaßt auch Grenzwertbetrachtungen und asymptotische Abschätzungen]