BOOK OF ABSTRACTS STATISTISCHE WOCHE

Transcrição

BOOK OF ABSTRACTS STATISTISCHE WOCHE
BOOK OF ABSTRACTS
STATISTISCHE WOCHE
15.–18. September 2015
Hamburg
www.statistische-woche.de
Organizers:
Deutsche Statistische Gesellschaft (DStatG)
Verband Deutscher Städtestatistiker (VDSt)
Deutsche Gesellschaft für Demographie
Address:
Fakultät für Wirtschafts- und Sozialwissenschaften
Helmut-Schmidt-Universität, Universität der Bundeswehr Hamburg
Holstenhofweg 85
22043 Hamburg.
Statistische Woche 2015
15.-18. September, Hamburg
STATISTISCHE WOCHE
15.–18. September 2015
Hamburg
www.statistische-woche.de
Contents
Inhaltsverzeichnis
Program – Overview . . . . . . . . . . p. 5
Programm – Überblick . . . . . . . . S. 5
Session – Timetable . . . . . . . . . . . p. 8
Session – Zeitplan . . . . . . . . . . . . . S. 8
Plenary/ Poster Presentations . . p. 9
Plenar-/ Poster Präsentationen S. 9
Program DGD . . . . . . . . . . . . . . . p. 11
Program DGD . . . . . . . . . . . . . . . S. 11
Program VDSt . . . . . . . . . . . . . . p. 12
Programm VDSt . . . . . . . . . . . . .S. 12
Program DStatG . . . . . . . . . . . . p. 13
Program DStatG . . . . . . . . . . . . . S. 13
•
•
•
•
Tuesday . . . . . . . . . . . . . . . . . p.
Wednesday . . . . . . . . . . . . . . p.
Thursday . . . . . . . . . . . . . . . . p.
Friday . . . . . . . . . . . . . . . . . . . p.
•
•
•
•
13
22
32
42
Dienstag . . . . . . . . . . . . . . . . . S.
Mittwoch . . . . . . . . . . . . . . . . S.
Donnerstag . . . . . . . . . . . . . . S.
Freitag . . . . . . . . . . . . . . . . . . S.
13
22
32
42
Abstracts . . . . . . . . . . . . . . . . . . . . p. 45
Abstracts . . . . . . . . . . . . . . . . . . . .S. 45
List of participants . . . . . . . . . . p. 172
Teilnehmerliste . . . . . . . . . . . . . S. 172
• microm Micromarketing Systeme und Consult
GmbH
• RatSWD
• Springer Verlag
• Statistikamt Nord
• Statistisches Bundesamt - Destatis
• Statistik der Bundesagentur für Arbeit
• SAS Institute GmbH-JMP
• SAS Institute GmbH
Sponsoren – Sponsors:
• ADDITIVE Soft- und Hardware für Technik
und Wissenschaft GmbH
• Institut für Arbeitsmarkt- und Berufsforschung
(IAB) der Bundesagentur für Arbeit
• InstantAtlas - Geowise Limited
• Landesbetrieb Geoinformation und Vermessung
• McKinsey
1
15.-18. September, Hamburg
Statistische Woche 2015
Programmkomitee – Program Commitee:
Wolfgang Schmid (Vorsitz DStatG, Europa-Universität Viadrina)
Jürgen Chlumsky (Statistisches Bundesamt)
Lothar Eichhorn (Landesbetrieb für Statistik und Kommunikationstechnologie Niedersachsen)
Michael Grömling (Institut der deutschen Wirtschaft)
Harry Haupt (Universität Passau)
Göran Kauermann (LMU München)
Sven Knoth (Helmut-Schmidt-Universität Hamburg)
Christine Müller (TU Dortmund)
Ralf Münnich (Universität Trier)
Yarema Okhrin (Universität Augsburg)
Winfried Pohlmeier (Universität Konstanz)
Ulrike Rockmann (Deutsches Institut für Wirtschaftsforschung e. V.)
Für die Städtestatistik – For Municipal Statistics:
Michael Haußmann (Landeshauptstadt Stuttgart, Statistisches Amt)
Hermann Breuer (Stadt Köln, Amt für Stadtentwicklung und Statistik)
Helmut Eppmann (Statistikamt Nord)
Juliana Mausfeld (Statistikamt Nord)
Christiane Schneider (Statistikamt Nord)
Für die Demographie – For Demography:
Tilman Mayer (Uni Bonn)
Lokale Organisation – Local Organizers:
Sven Knoth (Leitung lokales Organisationskomitee, Helmut-Schmidt-Universität Hamburg)
Detlef Steuer (Lokales Organisationskomitee, Helmut-Schmidt-Universität Hamburg)
Doris Ehrich (Lokales Organisationskomitee, Helmut-Schmidt-Universität Hamburg)
Yarema Okhrin (Tagungsbeauftragter DStatG, Universität Augsburg)
Moritz Heiden (Programmbeauftragter DStatG, Universität Augsburg)
2
Statistische Woche 2015
15.-18. September, Hamburg
Kurse/ courses
Kurs Reproducible Research
Im Rahmen der Statistischen Woche 2015 an der Helmut-Schmidt-Universität Hamburg findet ein Tutorium Reproducible Research mit RStudio und knitr statt.
Ort
PC-Pool der Fakultät WiSo, Gebäude H1 (Hauptgebäude), R. 2161 (2.Stock)
Zeit
Freitag, 18. September, 13:00 - 14:30 Uhr und 14:45 - 16:15 Uhr
Inhalt des Kurses
Es wird zunächst in die Idee des Reproducible Research eingeführt und die Notwendigkeit einer strengen
Umsetzung dieses Paradigmas erläutert.
Anhand praktischer Beipiele wird gezeigt, wie die Kombination R/RStudio/knitr eine weitgehende Wiederholbarkeit der eigenen Fortschungsergebnisse unzusetzen hilft.
Die notwendige Software ist auf den Rechnern im Pool installiert, wer auf seinem privaten Rechner
arbeiten möchte, benötigt R/RStudio, knitr (in RStudio enthalten) und eine funktionsfähige TEX/LATEX
Arbeitsumgebung.
Maximale Anzahl der Teilnehmer: 20
Eine Anmeldung ist über die Adresse [email protected] bis zum 31. August 2015 möglich.
Unternehmenspräsentationen/ company presentations
InstantAtlas-Workshop: Best Design Practices / Demo InstantAtlas-DUVA
Schnittstelle (1 Stunde)
Inhalt: Kurze Präsentation von Geowise über die neue “InstantAtlas Online” Cloud-Plattform. Vorstellung und Diskussion von Beispielen deutscher InstantAtlas Berichte mit anderen Benutzern und
Nicht-Benutzern. Präsentation von neuen Excel-Tools für den Datenexport aus DUVA für InstantAtlas.
Datum: Mittwoch, den 16. September 2015
Zeit: 14:10-15:00
Ort: .Raum G
3
15.-18. September, Hamburg
Statistische Woche 2015
Collogia: “OpenStatistik durch OpenSource leichtgemacht”: Das neue
OpenSource-Werkzeug Xavier - gut geeignet um Statistik im Internet zu
präsentieren? (40 min)
Inhalt: Collogia präsentiert Xavier,
• wie Xavier im Internet eingesetzt werden kann,
• wie Anforderungen der Statistiker eingebracht werden konnten
• und wie Xavier leicht konfiguriert werden kann.
Datum: Mittwoch, den 16. September 2015
Zeit: 15:10-15:50
Ort: .Raum G
Statistik erleben: Mit JMP das Interesse an Daten wecken und Lernerfolge sichern
Dr. Volker Kraft, SAS Institute GmbH, JMP Academic Devision
Statistische Konzepte müssen nicht abstrakt bleiben, sondern lassen sich durch eine interaktive Datenanalyse und die geeignete Visualisierung von Ergebnissen direkt erfahrbar machen. Dies motiviert nicht
nur Studenten mit Daten zu arbeiten, sondern vertieft auch das Verständnis und sichert die Lernerfolge
in der Statistik-Ausbildung. In dieser Session wird mit JMP 12 und Beispieldaten demonstriert, wie
Studenten durch angeleitete Übungen statistische Konzepte wie beispielsweise Regression oder Wechselwirkungseffekte erlernen können. Alle Teilnehmer sind herzlich eingeladen die einfachen Übungen
praktisch mitzumachen, um die einzigartige Interaktivität und einige beispielhafte Visualisierungen von
JMP kennenzulernen. Hierzu kann vor der Session die kostenfreie 30-Tage JMP 12 Testversion (Windows oder Mac) von www.jmp.com installiert werden.
Datum: Mittwoch, den 16. September 2015
Zeit: 18:00-19:00
Ort: .Raum G
4
Statistische Woche 2015
15.-18. September, Hamburg
Program Overview – Programm Überblick:
Tuesday, September 15, 2015:
09:00-10:40
10:40-11:10
11:10-12:00
12:00-12:50
Sessions
Break
Opening and Plenary Presentation
.Room A (Hörsaal 5)
Plenary Presentation Statistical Indicators for Policy Monitoring (Enrico Giovannini)
.Room A (Hörsaal 5)
12:50-14:10
14:10-15:50
15:50-16:20
16:20-18:00
19:00-21:00
Lunch Break
Sessions
Break
Sessions
Welcome reception at the town hall
Wednesday, September 16, 2015:
09:00-10:40
09:00-11:30
10:40-11:10
11:10-12:00
12:00-12:50
12:50-14:10
14:10-15:50
15:50-16:20
16:20-18:00
18:30-18:50
18:30-19:00
19:00-23:00
Sessions
VDSt General Assembly Meeting
.Room D (Hörsaal 3)
Break
Plenary Presentation Statistical Surveillance (Bill Woodall)
.Room A (Hörsaal 5)
Heinz-Grohmann Lecture (Joachim Wagner)
.Room A (Hörsaal 5)
Lunch Break
Sessions
Break
Sessions
General Assembly Committee for Regional Statistics
.Room D (Hörsaal 3)
Poster Presentations and reception
.Ellweinsaal (ground floor Mensa)
Conference dinner
.Ellweinsaal (ground floor Mensa)
Thursday, September 17, 2015:
09:00-10:40
10:40-11:10
11:10-12:00
Sessions
Break
Plenary Presentation Statistical Analysis of Network Data (Michael Schweinberger)
.Room A (Hörsaal 5)
12:00-12:50
12:50-14:10
14:10-15:50
15:50-16:20
16:20-18:00
18:00-19:00
Gumbel Lecture (Christoph Rothe)
Lunch Break
Sessions
Break
Sessions
DStatG General Assembly Meeting
5
.Room A (Hörsaal 5)
.Room A (Hörsaal 5)
15.-18. September, Hamburg
Statistische Woche 2015
Friday, September 18, 2015:
09:00-10:40
10:40-11:10
11:10-12:50
Sessions
Break
Sessions
Statistische Woche 2016
Die Statistische Woche 2016 wird in Augsburg stattfinden. Aktuelle Informationen und Möglichkeiten
zur Einreichung und Anmeldung finden Sie ab Januar 2016 auf www.statistische-woche.de.
The German Statistical Week 2016 will be held in Augsburg. Further information will be available from
January 2016 on www.statistische-woche.de.
Wir freuen uns auf Ihr Kommen! We are looking forward to welcome you!
6
Statistische Woche 2015
15.-18. September, Hamburg
Statistische Woche
405
406
I
404
407
WC
403
309
Hauptbibliothek
401/402
Tagungsbüro
308
310
Hörsaal 6
Hörsaal 4
WC
F
E
305
5
6
Hörsaal 5
301
H
A
1
2
Haupteingang
4
3
Roter Platz
Kaffeecatering
7
WC
8
Hörsaal 3
D
207
206
9
201
Hörsaal 2
205
B
202
204
Hörsaal 1
203
C
2
SAS Institute GmBH - JMP Division
3
Statistik der Bundesagentur fuer Arbeit
Statistik Service Nordost
4
Institut für Arbeitsmarkt- und Berufsorschung
(IAB der Bundesagentur für Arbeit)
5
Instantatlas - Geowise Limited GB
6
Statistikamt Nord und Landesbetrieb
7
Additive Soft- und Hardware fuer
Technik und Wissenschaft GmbH
8
microm
Micromarketing Systeme und Consult GmbH
9
Springer Verlag
WC
110
M
101 / 103
G
109
L
108
K
7
105
J
Mensa / Lunch
1
Statistisches Bundesamt - Destatis
Café
15.-18. September, Hamburg
Statistische Woche 2015
Section
Session number . Letter of lecture hall
Tuesday
Sep. 15
1.C
2.C
1.G
2.G 3.G
F Statistics in Finance
1.C 2.C 3.C 4.C
G Business and Market Statistics
1.D
1.A
H Statistical Analysis of Network Data
1.I
Statistical Inverse Problems
2.I 3.I
1.E 2.E 3.E
J Labour Market and Social Security
1.D
K Methodology of Statistical Surveys
2.D 3.D
1.D 2.D
L Mini-Symposium
1.F
M Statistics in Natural Science and Technology
1.B
2.F 3.F
2.E 3.D 4.D
1.B
O Statistical Theory and Methodology
1.C 2.C
Q Nonparametric and Robust Statistics
1.A 2.A
R Time Series with Structural Breaks
1.H
T Computational Statistics and Data Analysis
DStatG & Spanish Statistical Society
Y Open Section
2.H 3.H
1.F 2.H
U Smoothing Categorial Regressors
X
3.A 4.A 5.A
1.F 2.F
S Data depth and classification
DStatG & Italian Statistical Society
2.B 3.B
1.E 2.E
P Change Points
V Education and Training
11:10-12:50
3.C 4.C
1.A 2.A
E Verband Deutscher Städtestatistiker (VDSt)
W
09:00-10:40
Friday
Sep.18
1.E 2.E
D Deutsche Gesellschaft für Demographie (DGD)
N Regional Statistics
16:20-18:00
14:10-15:50
11:10-12:50
Thursday
Sep. 17
6.B
1.B 2.B 3.B 4.B 5.B
7.C
C Empirical Finance
I
09:00-10:40
16:20-18:00
Wednesday
Sep. 16
A Empirical Economics and Applied Econometrics
B Statistical Indicators for Policy Monitoring
14:10-15:50
09:00-10:40
16:20-18:00
09:00-10:40
14:10-15:50
Session Timetable – Session Zeitplan
1.E
2.E
1.H 2.H
1.F
1.F
The numbers and the letters in the table correspond to the session number and the .lecture
hall letter. For example, 1.A means the first session takes place in Room A (see list of
abbreviations below).
8
Statistische Woche 2015
Raum/room
H5 Hörsaal 5
H2 Hörsaal 2
H1 Hörsaal 1
H3 Hörsaal 3
H4 Hörsaal 4
H6 Hörsaal 6
SR101 Seminarraum 101/103
15.-18. September, Hamburg
Abkürzung/ abbreviation Raum/room
A
SR301 Seminarraum 301/303
B
SR405 Seminarraum 405/406
C
SR105 Seminarraum 105
D
SR108 Seminarraum 108
E
SR109 Seminarraum 109
F
SR110 Seminarraum 110
G
Abkürzung/ abbreviation
H
I
J
K
L
M
Plenary Presentations
Room: A
Opening and Plenary Presentation.
Tuesday 15th, 11:10-12:00.
Plenary Presentation: Enrico Giovannini. “Statistical Indicators for Political Monitoring”.
Tuesday 15th, 12:00-12:50.
Plenary Presentation Statistical Surveillance: Bill Woodall. “Monitoring and Improving Surgical Outcome Quality”.
Wednesday 16th, 11:10-12:00.
Heinz-Grohmann Lecture: Joachim Wagner. “25 Jahre Nutzung vertraulicher Firmendaten der amtlichen Statistik für wirtschaftswissenschaftliche Forschung: Produkte, Projekte, Probleme, Perspektiven”.
Wednesday 16th, 12:00-12:50.
Plenary Presentation Statistical Analysis of Network Data: Michael Schweinberger. “Exponentialfamily random graph models with local dependence”.
Thursday 17th, 11:10-12:00.
Gumbel Lecture: Christoph Rothe. “Partial identification in regression discontinuity designs with manipulated running variables”.
Thursday 17th, 12:00-12:50.
Poster Presentations
Room: Ellweinsaal
Christian Weiß. “Analysis and Modelling of Categorical Time Series”.
Lisiane Schnegelsberg; Steffen Liebscher; Thomas Kirschstein. “How to find the best publication
strategy”.
Moritz Heiden; Alain Hamid. “Forecasting volatility with empirical similarity and Google Trends”.
Horst Gabriel. “Arbeitsmarktindikatoren im regionalen Vergleich”.
9
15.-18. September, Hamburg
Statistische Woche 2015
Martin Biewen; Stefanie Seifert. “Potential Parenthood and Career Progression of Men and Women A Simultaneous Hazards Approach”.
Steffen Liebscher; Thomas Kirschstein. “The restlos package - robust estimation of location and
scatter”.
Danvee Floro; Björn van Roye. “The Responsiveness of Monetary Policy to Financial Stress: A Panel
Data Analysis”.
Daniel Ambach; Philipp Otto. “A survey on wind power in Germany and prediction of wind speed at
a wind farm”.
Ralf Münnich; Philip Rosenthal; Ekkehard Sachs. “Hybridalgorithmus zur Schätzung von robusten
räumlichen Small Area Modellen”.
Sebastian Leist. “Soziale Segregation im Schulsystem Hamburgs”.
Rafael Weißbach; Michael Herzog. “Regionaler Anteil kariesfreier Vorschulkinder - eine clusterrandomisierte Studie in Südhessen”.
10
Statistische Woche 2015
15.-18. September, Hamburg
Deutsche Gesellschaft für Demographie
DGD: Nachhaltige Ausdehnung der Lebensspanne: Herausforderungen für die Pflege
(Session 1)
Chair: Rembrandt Scholz, Room: A, abstracts see page 52 to 54
Rainer Unger. “Ursachen und Wandel von Pflegebedürftigkeit”.
Tuesday 15th, 14:10-14:35.
Joscha Krause; Aiko Kühn; Ralf Münnich. “Die Auswirkungen des demographischen Wandels auf die
Pflegeversorgung in Grenzregionen”.
Tuesday 15th, 14:35-15:00.
Anne Fink; Gabriele Doblhammer. “Risiko für Pflegebedürftigkeit von Demenzpatienten hängt vom
behandelnden Arzt ab”.
Tuesday 15th, 15:00-15:25.
Charlotte Sahin; Olaf Iseringhausen; Kira Hower; Anja Rethmeier-Hanke; Hans-Christian Körner; Constanze Liebe; Uwe Borchers; Bernd Wedmann. “Entwicklung von sektorübergreifenden Versorgungsstrukturen - Ergebnisse aus dem Modell Regionales Versorgungskonzept Geriatrie”.
Tuesday 15th, 15:25-15:50.
DGD: Nachhaltige Ausdehnung der Lebensspanne: Herausforderungen für die Pflege
(Session 2)
Chair: Enno Nowossadeck, Room: A, abstracts see page 56 to 57
Alexander Rommel; Cornelia Lange; Matthias Wetzstein. “Gesundheit, Lebenssituation und soziale
Unterstützung bei pflegenden Angehörigen. Ergebnisse der Studie “Gesundheit in Deutschland aktuell
2012””.
Tuesday 15th, 16:20-16:45.
Sonja Nowossadeck; Daniela Klaus. “Die Lebensqualität pflegender Angehöriger: Befunde aus dem
Deutschen Alterssurvey”.
Tuesday 15th, 16:45-17:10.
Benjamin Strohner. “Prognose des informellen Betreuungspotentials Älterer durch Ältere bis 2050”.
Tuesday 15th, 17:10-17:35.
Betül Güntürk-Kuhl; Caroline Neuber-Pohl. “Regionalität des Bedarfes an den Gesundheitsberufen Ergebnisse der regionalen BIBB-IAB-Qualifikations- und Berufsfeldprojektionen”.
Tuesday 15th, 17:35-18:00.
11
15.-18. September, Hamburg
Statistische Woche 2015
Verband Deutscher Städtestatistiker (VDSt)
VDSt: Das Zensus-System im Weitwinkel: Herausforderungen und
Zukunftsperspektiven (Session 1)
Chair: Michael Haußmann, Room: G, abstracts see page 58
Bettina Knauth. “Was (gleich) nach dem Zensus kommt - Informationsmanagement auf Registerbasis.
Beispiele und Perspektiven künftiger Planungsunterstützung in Europa”.
Tuesday 15th, 16:20-16:40.
Erik Schulte-Nordhorn. ““Eins für alle” - Die Nutzung zentraler Register für Aufgaben eines nationalen
Zensus und die kommunale Planung in den Niederlanden”.
Tuesday 15th, 16:40-17:00.
Podiumsdiskussion mit zwei Impuls-Statements. “Rechts überholt - Erodieren zentrale Angebote amtlicher und institutioneller Statistik die kommunale Planungshoheit, oder fügt sich ein neues System
föderaler Zusammenarbeit?”
Tuesday 15th, 17:00-18:00.
VDSt: Jenseits von Registern und Umfragen: Nutzung und Potenzial von neuen
Datenquellen für Planung und Politik (Session 2)
Chair: Hartmut Bömermann, Room: G, abstracts see page 59 to 60
Tim Elrick; Matthias Plennert. “Anwendungsreif? Nutzung und Potenzial von Internetdaten für Stadtforschung und Raumbeobachtung”.
Thursday 17th, 09:00-09:45.
Günther Bachmann. “Die Kombination von Internetdaten und Statistikinformationen zur Bewertung
von Umweltqualität und -gerechtigkeit”.
Thursday 17th, 09:45-10:10.
Anne Seehase. “Die Analyse von Kaltmieten mit Online-Daten - Am Beispiel einer Quantilregression”.
Thursday 17th, 10:10-10:35.
VDSt: “All Business is local” - Bereitstellung von Verwaltungsdaten für die
kommunale Daseinsvorsorge durch die Städtestatistik. (Session 3)
Chair: Helmut Schels, Room: G, abstracts see page 61
Andreas Kaiser. “Sozialmonitoring Integrierte Stadtteilentwicklung Hamburg: Die Diffusion eines Stadtbeobachtungssystems in lokale und fachliche Entscheidungsprozesse”.
Thursday 17th, 11:10-11:40.
Lutz Liffers. “Datengestütztes Bildungsmanagement in Städten - Erfahrungen und Beispiele”.
Thursday 17th, 11:40-12:10.
Irene Iwanow. “Verwaltungsdaten als Basis für kommunale Wohnungsnachfrage- und Wohnbauflächenprognosen”.
Thursday 17th, 12:10-12:40.
12
Statistische Woche 2015
15.-18. September, Hamburg
DStatG Sessions
Tuesday, September 15th, 2015, 09:00 - 10:40
Statistical Indicators for Policy Monitoring (Session 1: Joint section with Regional
Statistics)
Chair: Lothar Eichhorn, Room: B, abstracts see page 63 to 65
Hans Diefenbacher; Dorothee Rodenhäuser. “Der Regionale Wohlfahrtsindex - eine Alternative zum
Bruttoinlandsprodukt?”
Tuesday 15th, 09:00 - 09:25.
Frank Thalheimer. “Statistische Indikatoren aus den Volkswirtschaftlichen Gesamtrechnungen der
Länder - 25 Jahre gesamtdeutsche Wirtschaftsbeobachtung”.
Tuesday 15th, 09:25 - 09:50.
Jürgen Göddecke-Stellmann. “Monitoring der Städtebauförderung in der vertikalen Politikverflechtung”.
Tuesday 15th, 09:50 - 10:15.
Jana Wyrwoll; Susanne Noll. “Die Kennzahlen nach §48a SGB II zum Vergleich der Leistungsfähigkeit
von Jobcentern”.
Tuesday 15th, 10:15 - 10:40.
Statistics in Finance (Session 1)
Chair: Yarema Okhrin, Room: C, abstracts see page 66 to 67
Moritz Heiden. “Pitfalls of the Cholesky Decomposition for Forecasting Multivariate Volatility”.
Tuesday 15th, 09:00 - 09:25.
Johannes Rohde. “Downside Risk Measure Performance under Changes in Volatility”.
Tuesday 15th, 09:25 - 09:50.
Sebastian Bayer. “Combining VaR Forecasts using Lasso Quantile Regression”.
Tuesday 15th, 09:50 - 10:15.
Rainer Schüssler. “Dynamic Optimization of Futures Portfolio Strategies under Downside Risk Control”.
Tuesday 15th, 10:15 - 10:40.
Business and Market Statistics (Session 1)
Chair: Michael Grömling, Room: D, abstracts see page 67 to 68
Sandra Gottschalk. “Forschungsdatenzentrum des ZEW (ZEW-FDZ)”.
Tuesday 15th, 09:00 - 09:25.
13
15.-18. September, Hamburg
Statistische Woche 2015
Andreas Kladroba. “Herausforderungen bei der Operationalisierung des Forschungsbegriffs in der FuEErhebung”.
Tuesday 15th, 09:25 - 09:50.
Michael Grömling. “Digitale Revolution - (wie) nimmt sie die Statistik wahr?”
Tuesday 15th, 09:50 - 10:15.
Education and Training (Session 1)
Chair: Ulrike Rockmann, Room: E, abstracts see page 69
Jan Schwochow. “Infographik - Datenvisualisierung und Wissensvermittlung”.
Tuesday 15th, 09:00 - 09:40.
Hans-Joachim Mittag. “Interaktive und plattformunabhängige Lernobjekte für die Statistikausbildung”.
Tuesday 15th, 09:40 - 10:20.
Open Section (Session 1)
Chair: Kerstin Schmidtke, Room: F, abstracts see page 70 to 72
Hans-Dieter Kretschman; Heike Zettwitz. “Der indikatorengestützte Demografiemonitor als statistischempirische Basis für das Handlungskonzept Demografie der Staatsregierung und kommunale/regionale
Demografiestrategien im Freistaat Sachsen”.
Tuesday 15th, 09:00 - 09:25.
Roman Page. “Creative Economy Schweiz - Eine neue Sicht auf die Kreativwirtschaft”.
Tuesday 15th, 09:25 - 09:50.
Kerstin Schmidtke; Heike Habla. “Nutzen der Forschungsdatenzentren der Statistischen Ämter des
Bundes und der Länder für die Wissenschaft - Entwicklung von Nachfrage und Angebot”.
Tuesday 15th, 09:50 - 10:15.
Susana Garcia Diez. “Die Herausbildung von statistischen Indikatoren zur Wohlstandsmessung und
zur Initiative ”GDP and Beyond Entwicklungen auf nationaler und internationaler Ebene.”
Tuesday 15th, 10:15 - 10:40.
Coffee Break: 10:40 - 11:10
Opening and Plenary Presentation
Chair: Wolfgang Schmid, Room: A
Opening and Plenary Presentation.
Tuesday 15th, 11:10-12:00.
14
Statistische Woche 2015
15.-18. September, Hamburg
Plenary Presentation Statistical Indicators for Policy Monitoring
Chair: Jürgen Chlumsky, Room: A
Plenary Presentation: Enrico Giovannini. “Statistical Indicators for Political Monitoring”.
Tuesday 15th, 12:00-12:50.
Lunch Break: 12:50 - 14:10
15
15.-18. September, Hamburg
Statistische Woche 2015
Tuesday, September 15th, 2015, 14:10 - 15:50
Statistical Indicators for Policy Monitoring (Session 2: Panel discussion - Usage of
education indicators / Nutzung von Bildungsindikatoren)
Chair: Ulrike Rockmann, Room: B, abstracts see page 72
Prof. Dr. Martin Baethge; Prof. Dr. Andrä Wolter; Christian Müller; Eckart Hohmann; Karin Prien.
“Podiumsdiskussion”.
Tuesday 15th, 14:10 - 15:50.
DGD: Nachhaltige Ausdehnung der Lebensspanne: Herausforderungen für die Pflege
(Session 1)
Chair: Rembrandt Scholz, Room: A, abstracts see page 52 to 54
Rainer Unger. “Ursachen und Wandel von Pflegebedürftigkeit”.
Tuesday 15th, 14:10-14:35.
Joscha Krause; Aiko Kühn; Ralf Münnich. “Die Auswirkungen des demographischen Wandels auf die
Pflegeversorgung in Grenzregionen”.
Tuesday 15th, 14:35-15:00.
Anne Fink; Gabriele Doblhammer. “Risiko für Pflegebedürftigkeit von Demenzpatienten hängt vom
behandelnden Arzt ab”.
Tuesday 15th, 15:00-15:25.
Charlotte Sahin; Olaf Iseringhausen; Kira Hower; Anja Rethmeier-Hanke; Hans-Christian Körner; Constanze Liebe; Uwe Borchers; Bernd Wedmann. “Entwicklung von sektorübergreifenden Versorgungsstrukturen - Ergebnisse aus dem Modell Regionales Versorgungskonzept Geriatrie”.
Tuesday 15th, 15:25-15:50.
Statistics in Finance (Session 2)
Chair: Yarema Okhrin, Room: C, abstracts see page 73 to 74
Nestor Parolya; Taras Bodnar; Yarema Okhrin. “Estimation of Expected Utility Portfolios for Large
Dimensional Data”.
Tuesday 15th, 14:10 - 14:35.
Florian Ziel. “Estimating ARMA-GARCH Processes in High Dimensions”.
Tuesday 15th, 14:35 - 15:00.
Maryna Yaroshenko; Taras Zabolotskyy. “The price for Basel III: theoretical aspects”.
Tuesday 15th, 15:00 - 15:25.
16
Statistische Woche 2015
15.-18. September, Hamburg
Matthias Eckardt; Maria Grith. “Dynamic Analysis of Multivariate Time Series Using Conditional
Wavelet Graphs”.
Tuesday 15th, 15:25 - 15:50.
Statistical Inverse Problems (Session 1)
Chair: Hajo Holzmann, Room: B, abstracts see page 75 to 76
Katharina Proksch; Hajo Holzmann; Nicolai Bissantz. “Confidence regions for images observed under
the Radon transform”.
Tuesday 15th, 14:10 - 14:35.
Jakob Söhl; Mathias Trabs. “Adaptive confidence bands for Markov chains and diffusions: Estimating
the invariant measure and the drift”.
Tuesday 15th, 14:35 - 15:00.
Nicolai Bissantz. “Detecting time-dependency and separation of objects in live cell-imaging”.
Tuesday 15th, 15:00 - 15:25.
Johanna Kappus. “Density estimation from grouped data with skew densities and heterogeneous group
sizes”.
Tuesday 15th, 15:25 - 15:50.
Young-Academics Mini-Symposium (Session 1)
Chair: Roland Langrock, Room: D, abstracts see page 77 to 78
David Borchers. “Wildlife sampling methods and models”.
Tuesday 14:10 - 15:00.
Charlotte Moragh Jones-Todd. “Why Spatial models are useful in ecology (Understanding the mechanics of dots)”.
Tuesday 15:00 - 15:25.
Emily Beth Dennis. “Recent developments for modelling butterfly abundance”.
Tuesday 15:25 - 15:50.
Change Points (Session 1)
Chair: Ansgar Steland, Room: E, abstracts see page 78 to 79
Wolfgang Schmid; Yarema Okhrin. “Monitoring Time Dependent Processes”.
Tuesday 15th, 14:10 - 15:00.
Ansgar Steland; Rainer von Sachs. “Inference and Change-Point Asymptotics for Covariance Matrices
of High-Dimensional Time Series”.
Tuesday 15th, 15:00 - 15:25.
17
15.-18. September, Hamburg
Statistische Woche 2015
Computational Statistics and Data Analysis (Session 1)
Chair: Roland Fried, Room: H, abstracts see page 79 to 81
Peter Filzmoser; Sven Serneels; Irene Hoffmann; Christophe Croux. “Sparse partial robust M-estimation
for regression and classification”.
Tuesday 14:10 - 15:00.
Annette Möller; Gerhard Tutz; Jan Gertheiss. “Random Forests for Functional Covariates”.
Tuesday 15:00 - 15:25.
Sermad Abbas; Roland Fried. “Control charts based on robust two-sample tests”.
Tuesday 15:25 - 15:50.
Coffee Break: 15:50 - 16:20
18
Statistische Woche 2015
15.-18. September, Hamburg
Tuesday, September 15th, 2015, 16:20 - 18:00
Statistical Indicators for Policy Monitoring (Session 3: Political significance of
statistical indicators)
Chair: G. Wagner, Room: B, abstracts see page 81
Anika Rasner. “Regierungsinitiative ”Gut leben in Deutschland - was uns wichtig ist Entwicklung eines
Indikatorensatzes zur Lebensqualität”.
Tuesday 15th, 16:20 - 16:55.
Oliver Schmolke. “Politische Rahmenbedingungen und Zielsetzungen der Regierungsstrategie “Gut
leben in Deutschland - was uns wichtig ist””.
Tuesday 15th, 16:55 - 17:30.
Jörg Mayer-Ries. “Form Follows Function? - Erfahrungen aus der Praxis von Nachhaltigkeitsmanagement und Nachhaltigkeitspolitik mittels Indikatoren”.
Tuesday 15th, 17:30 - 18:00.
DGD: Nachhaltige Ausdehnung der Lebensspanne: Herausforderungen für die Pflege
(Session 2)
Chair: Enno Nowossadeck, Room: A, abstracts see page 56 to 57
Alexander Rommel; Cornelia Lange; Matthias Wetzstein. “Gesundheit, Lebenssituation und soziale
Unterstützung bei pflegenden Angehörigen. Ergebnisse der Studie “Gesundheit in Deutschland aktuell
2012””.
Tuesday 15th, 16:20-16:45.
Sonja Nowossadeck; Daniela Klaus. “Die Lebensqualität pflegender Angehöriger: Befunde aus dem
Deutschen Alterssurvey”.
Tuesday 15th, 16:45-17:10.
Benjamin Strohner. “Prognose des informellen Betreuungspotentials Älterer durch Ältere bis 2050”.
Tuesday 15th, 17:10-17:35.
Betül Güntürk-Kuhl; Caroline Neuber-Pohl. “Regionalität des Bedarfes an den Gesundheitsberufen Ergebnisse der regionalen BIBB-IAB-Qualifikations- und Berufsfeldprojektionen”.
Tuesday 15th, 17:35-18:00.
VDSt: Das Zensus-System im Weitwinkel: Herausforderungen und
Zukunftsperspektiven (Session 1)
Chair: Michael Haußmann, Room: G, abstracts see page 58 to 59
Bettina Knauth. “Was (gleich) nach dem Zensus kommt - Informationsmanagement auf Registerbasis.
Beispiele und Perspektiven künftiger Planungsunterstützung in Europa”.
Tuesday 15th, 16:20-16:40.
19
15.-18. September, Hamburg
Statistische Woche 2015
Erik Schulte-Nordhorn. ““Eins für alle” - Die Nutzung zentraler Register für Aufgaben eines nationalen
Zensus und die kommunale Planung in den Niederlanden”.
Tuesday 15th, 16:40-17:00.
Podiumsdiskussion mit zwei Impuls-Statements. “Rechts überholt - Erodieren zentrale Angebote amtlicher und institutioneller Statistik die kommunale Planungshoheit, oder fügt sich ein neues System
föderaler Zusammenarbeit?”
Tuesday 15th, 17:00-18:00.
Statistics in Finance (Session 3)
Chair: Ostap Okhrin, Room: C, abstracts see page 82 to 83
Ostap Okhrin; Taras Bodnar; Nestor Parolya. “Optimal Shrinkage Estimator for High Dimensional
Mean Vector”.
Tuesday 15th, 16:20 - 16:45.
Richard Neuberg; Lauren Hannah. “Pricing under Estimation Risk”.
Tuesday 15th, 16:45 - 17:10.
Robinson Kruse; Christoph Wegener. “Testing for Neglected Strong Dependence in Explosive Models”.
Tuesday 15th, 17:10 - 17:35.
Mohsen Rezapour. “Estimating and Using continuous time stochastic volatility driven by partially
nested levy Archimedean copula Models with VIX Data for Option Valuation”.
Tuesday 15th, 17:35 - 18:00.
Young-Academics Mini-Symposium (Session 2)
Chair: Roland Langrock, Room: D, abstracts see page 84 to 85
Stacy Lynn DeRuiter. “Measuring whale behavioural responses to anthropogenic disturbance using
data from animal-borne tags”.
Tuesday 15th, 16:20 - 16:45.
Théo Michelot; Roland Langrock; Paul Blackwell. “A statistical introduction to animal movement
modelling”.
Tuesday 15th, 16:45 - 17:10.
Jonas Knape; Perry de Valpine. “Monte Carlo estimation of stage durations from cohort data”.
Tuesday 15th, 17:10 - 17:35.
Rachel Sara McCrea. “Capture-recapture models in ecology: A trio of multistate developments”.
Tuesday 15th, 17:35 - 18:00.
20
Statistische Woche 2015
15.-18. September, Hamburg
Change Points (Session 2)
Chair: Wolfgang Schmid, Room: E, abstracts see page 86
Maik Döring. “Multiple CUSP estimation in regression models”.
Tuesday 15th, 16:20 - 16:45.
Taras Lazariv; Wolfgang Schmid. “Surveillance of non-stationary processes”.
Tuesday 15th, 16:45 - 17:10.
Smoothing Categorial Regressors (Session 1)
Chair: Harry Haupt and Joachim Schnurbus, Room: F, abstracts see page 87
Jeffrey S. Racine. “Smoothing Categorical Regressors”.
Tuesday 15th, 16:20 - 17:10.
Jan Gertheiss; Elizabeth Sweeney. “ANOVA for Factors With Ordered Levels”.
Tuesday 15th, 17:10 - 17:35.
Harry Haupt; Joachim Schnurbus. “Global, cluster, and individual effects by smoothing categorical
predictors”.
Tuesday 15th, 17:35 - 18:00.
Other events on Tuesday
: Discovering Hamburg on your own
15:00 : City tour and sightseeing
19:00 : Welcome reception at the town hall
21
15.-18. September, Hamburg
Statistische Woche 2015
Wednesday, September 16th, 2015, 09:00 - 10:40
Statistical Indicators for Policy Monitoring (Session 4: Economic and financial policy)
Chair: Peter Schmidt, Room: B, abstracts see page 88 to 89
Bernd Hanke. “Finanzpolitische Kennziffern als Instrumente der Politikgestaltung und -vermittlung”.
Wednesday 16th, 09:00 - 09:25.
Albert Braakmann. “Administrative Verwendung statistischer Indikatoren-Entwicklungen und Auswirkungen am Beispiel der EU-Stabilitätspaktdaten”.
Wednesday 16th, 09:25 - 09:50.
Edgar Brandt. “Statistische Indikatoren zur Wirtschafts- und Finanzstabilitätspolitik aus der Perspektive einer Zentralbank”.
Wednesday 16th, 09:50 - 10:15.
Jens Mehrhoff. “How should we measure residential property prices to inform policy makers?”
Wednesday 16th, 10:15 - 10:40.
Statistics in Finance (Session 4)
Chair: Yarema Okhrin, Room: C, abstracts see page 90 to 91
Taras Bodnar; Markus Reiß. “Exact and Asymptotic Tests on a Factor Model in Low and Large
Dimensions with Applications”.
Wednesday 16th, 09:00 - 09:25.
Stefan Klößner; Gregor Pfeifer. “Synthesizing Cash for Clunkers: Stabilizing the Car Market, Hurting
the Environment”.
Wednesday 16th, 09:25 - 09:50.
Theo Berger. “Wavelet decomposition and applied portfolio management”.
Wednesday 16th, 09:50 - 10:15.
Rafael Beier; Stefan Bender. “The Bundesbank’s Research Data and Service Center (RDSC): Gateway
to Treasures of Micro-Data on the German Financial System”.
Wednesday 16th, 10:15 - 10:40.
Statistical Inverse Problems (Session 2)
Chair: Hajo Holzmann, Room: I, abstracts see page 91 to 92
Cristina Butucea; Rodrigue Ngueyep Tzoumpe; Pierre Vandekerkhove. “Mixture models with symmetric errors”.
Wednesday 16th, 09:00 - 09:50.
22
Statistische Woche 2015
15.-18. September, Hamburg
Alexander Meister. “Nonparametric GARCH models”.
Wednesday 16th, 09:50 - 10:15.
Fabian Dunker; Thorsten Hohage. “Nonparametric estimation of coefficients in stochastic differential
equations by penalized maximum likelihood”.
Wednesday 16th, 10:15 - 10:40.
Statistics in Natural Science and Technology (Session 1)
Chair: Sven Knoth, Room: F, abstracts see page 93 to 94
Vera Hofer. “Challenges of virtual testing in statistical quality control of railway ballast”.
Wednesday 16th, 09:00 - 09:50.
Aleksey Polunchenko. “Efficient Performance Evaluation of the Cumulative Sum Chart and the Sequential Probability Ratio Test”.
Wednesday 16th, 09:50 - 10:15.
Manuel Cabral Morais; António Pacheco. “On control charts and the detection of increases in the
traffic intensity”.
Wednesday 16th, 10:15 - 10:40.
Regional Statistics (Session 1)
Chair: Lothar Eichhorn, Room: E, abstracts see page 94 to 97
Wolf-Dietmar Speich. “Statistische Indikatoren aus den Gesundheitsökonomischen Gesamtrechnungen
für die Gesundheitsberichterstattung der Länder”.
Wednesday 16th, 09:00 - 09:25.
Dr. Olivia Martone. “Mit Statistiken lügt man nicht. Der Beitrag der Umweltökonomischen Gesamtrechnungen der Länder zum politischen Monitoring.”
Wednesday 16th, 09:25 - 09:50.
Guido Oemmelen. “microm Indikatoren für das kleinräumige politische Monitoring”.
Wednesday 16th, 09:50 - 10:15.
Lothar Eichhorn; Tanja Eichhorn. “Bestimmungsfaktoren der Zuwanderung”.
Wednesday 16th, 10:15 - 10:40.
Smoothing Categorial Regressors (Session 2)
Chair: Harry Haupt and Joachim Schnurbus, Room: H, abstracts see page 97 to 98
Daniela Pauger; Helga Wagner; Gertraud Malsiner-Walli. “Sparse Bayesian Modelling for Categorical
Predictors”.
Wednesday 16th, 09:00 - 09:25.
23
15.-18. September, Hamburg
Statistische Woche 2015
Phillip Heiler; Jana Mareckova. “We Belong Together - Pairwise Cross-Smoothing of Categorical Predictors”.
Wednesday 16th, 09:25 - 09:50.
Christian Schellhase; Joachim Schnurbus; Göran Kauermann. “Mixed copulae for Munich rent survey
- Rent versus configuration of flats in Munich”.
Wednesday 16th, 09:50 - 10:15.
Coffee Break: 10:40 - 11:10
Wednesday, September 16th, 2015, 11:10 - 12:50
Plenary Presentation Statistical Surveillance
Chair: Sven Knoth, Room: A, abstract see page 45
Plenary Presentation Statistical Surveillance: Bill Woodall. “Monitoring and Improving Surgical Outcome Quality”.
Wednesday 16th, 11:10-12:00.
Heinz-Grohmann Lecture
Chair: Ulrich Rendtel, Room: A
Heinz-Grohmann Lecture: Joachim Wagner. “25 Jahre Nutzung vertraulicher Firmendaten der amtlichen Statistik für wirtschaftswissenschaftliche Forschung: Produkte, Projekte, Probleme, Perspektiven”.
Wednesday 16th, 12:00-12:50.
Lunch Break: 12:50 - 14:10
24
Statistische Woche 2015
15.-18. September, Hamburg
Wednesday, September 16th, 2015, 14:10 - 15:50
Empirical Economics and Applied Economics (Session 1: Applied Time Series
Analysis)
Chair: Winfried Pohlmeier, Room: C, abstracts see page 99
Siem Lan Koopman. “Developments in nonlinear and Non-Gaussian time series analysis using Importance Sampling methods”.
Wednesday 16th, 14:10 - 15:00.
Aleksei Netsunajev; Helmut Lütkepohl. “Structural Vector Autoregressions with Smooth Transition in
Variances”.
Wednesday 16th, 15:00 - 15:25.
Michael Will; Christian Leschinski; Robinson Kruse. “Comparing Predictive Accuracy under Long Memory”.
Wednesday 16th, 15:25 - 15:50.
Statistical Indicators for Policy Monitoring (Session 5: International indicators)
Chair: Peter Schmidt , Room: B, abstracts see page 100
Priit Potisepp. “Use of economic statistics from popularity, misuse and misinterpretation perspectives”.
Wednesday 16th, 14:10 - 14:45.
Nico Massarelli.
Wednesday 16th, 14:45 - 15:20.
Susanne Schnorr-Bäcker. “Politikbegleitendes statistisches Monitoring auf inter- und supranationaler
Ebene Titel der”.
Wednesday 16th, 15:20 - 15:50.
Statistical Inverse Problems (Session 3)
Chair: Hajo Holzmann, Room: I, abstracts see page 100 to 101
Melanie Birke; Sebastien van Bellegem; Ingrid van Keilegom. “Semi-parametric estimation in a single
index model with endogenous variables”.
Wednesday 16th, 14:10 - 14:35.
Jan Johannes. “Functional linear instrumental regression”.
Wednesday 16th, 14:35 - 15:00.
Christoph Breunig. “Estimation and Testing in case of Endogenous Selection”.
Wednesday 16th, 15:00 - 15:25.
25
15.-18. September, Hamburg
Statistische Woche 2015
Hajo Holzmann; Stefan Hoderlein; Alexander Meister. “The Triangular Model with Random Coefficients”.
Wednesday 16th, 15:25 - 15:50.
Regional Statistics (Session 2)
Chair: Michael Fürnrohr, Room: D, abstracts see page 102 to 104
Gerd Reh. ““Zensus2011-Straßenatlas”; untergemeindliche Ergebnisse aus der Volks-, Gebäude- und
Wohnungszählung für Rheinland-Pfalz”.
Wednesday 16th, 14:10 - 14:35.
Josef Schäfer. “Small Area Estimation - Stand der Anwendung und Perspektiven in der amtlichen
Statistik”.
Wednesday 16th, 14:35 - 15:00.
Wolfgang Hüning. “Regionalstatistische Anforderungen an die Weiterentwicklung des Systems der
Haushaltsstatistiken (WSH)”.
Wednesday 16th, 15:00 - 15:25.
Helmut Eppmann. “Evaluierung des Zensus 2011 und Konsequenzen für den Zensus 2021”.
Wednesday 16th, 15:25 - 15:50.
Time Series with Structural Breaks (Session 1)
Chair: Idris Eckley, Room: A, abstracts see page 104 to 106
Rainer von Sachs; Joris Chau. “Functional mixed models for subject-replicated data with potential
breakpoints”.
Wednesday 16th, 14:10 - 14:35.
Carsten Jentsch; Anne Leucht; Marco Meyer; Carina Beering. “Empirical characteristic function-based
estimation for locally stationary processes”.
Wednesday 16th, 14:35 - 15:00.
Philip Bertram; Philipp Sibbertsen; Jun Ma. “Modelling real exchange rates: A Markov-STAR model”.
Wednesday 16th, 15:00 - 15:25.
Anna Louise Schröder; Piotr Fryzlewicz. “Dual Binary Segmentation for the Detection of Changes in
Mean and/or Variance of Piecewise-Stationary Time Series”.
Wednesday 16th, 15:25 - 15:50.
26
Statistische Woche 2015
15.-18. September, Hamburg
Education and Training (Session 2)
Chair: Ulrike Rockmann, Room: E, abstracts see page 106 to 108
Björn Christensen; Tanja Ihden; Martin Missong. “Statistik für Juristinnen und Juristen - Eine Lücke
im Aus- und Weiterbildungsangebot?”
Wednesday 16th, 14:10 - 14:35.
Manuel Förster; Andreas Maur. “Angst vor und Einstellung zum Fach Statistik von Studienanfängern
der Wirtschafts-, Politikwissenschaft und der Soziologie”.
Wednesday 16th, 14:35 - 15:00.
Ramona Voshage; Katja Baum. “Weiterbildung zum Statistischen Informationssystem (StatIS-BBB)”.
Wednesday 16th, 15:00 - 15:25.
Jürgen Kaselowsky. “SAS Analytics U - die neue Community für alle, die SAS lernen wollen”.
Wednesday 16th, 15:25 - 15:50.
Coffee Break: 15:50 - 16:20
27
15.-18. September, Hamburg
Statistische Woche 2015
Wednesday, September 16th, 2015, 16:20 - 18:00
Statistical Indicators for Policy Monitoring (Session 6: Wealth indicators)
Chair: Albert Braakmann, Room: B, abstracts see page 108 to 110
Norbert Schwarz. “Einkommensverteilung als Indikator - Was ist dabei zu beachten?”
Wednesday 16th, 16:20 - 16:45.
Erich Oltmanns; Joachim Schmidt. “Messung von subjektivem Wohlbefinden: Empirische Ergebnisse
für Deutschland”.
Wednesday 16th, 16:45 - 17:10.
Bernd Schmidt; Daniel Kühnhenrich; Christian Zipse; Carsten Hornbach. “Entlastungen spürbarer machen - Wie nehmen Bürgerinnen und Bürger sowie Unternehmen den Kontakt zur Verwaltung wahr?”
Wednesday 16th, 17:10 - 17:35.
Moritz Mannschreck. “Die Gesundheitsausgabenrechnung”.
Wednesday 16th, 17:35 - 18:00.
Statistical Indicators for Policy Monitoring (Session 7: Education)
Chair: Pia Brugger, Room: C, abstracts see page 111 to 113
Pia Brugger. “Steuerungsrelevante Kennzahlen für den Hochschulbereich”.
Wednesday 16th, 16:20 - 16:45.
Arne Schmidt; Nicole Buschle. “Monetäre Kennzahlen im Bildungsmonitoring”.
Wednesday 16th, 16:45 - 17:10.
Iris Gönsch. “Bildung im Lebenslauf - Ergebnisse der Zeitverwendungserhebung 2012/13”.
Wednesday 16th, 17:10 - 17:35.
Klaudia Schulte. “Der Sozialindex für Hamburger Schulen ”.
Wednesday 16th, 17:35 - 18:00.
Empirical Finance (Session 1)
Chair: Roman Liesenfeld, Room: E, abstracts see page 113 to 114
Luc Bauwens. “Forecasting Comparison of Long Term Component Dynamic Models”.
Wednesday 16th, 16:20 - 17:10.
Markus Kösler. “Testing for Cojumps - A Multivariate Coexceedance-based Approach”.
Wednesday 16th, 17:10 - 17:35.
28
Statistische Woche 2015
15.-18. September, Hamburg
Christoph Frey; Winfried Pohlmeier. “Bayesian Regularization of Portfolio Weights in High-Dimensional
Asset Spaces”.
Wednesday 16th, 17:35 - 18:00.
Statistics in Natural Science and Technology (Session 2)
Chair: Aleksey Polunchenko, Room: F, abstracts see page 115 to 117
Katy Klauenberg; Gerd Wübbeler; Bodo Mickan; Peter Harris; Clemens Elster. “Prior information, but
no MCMC: A Bayesian Normal linear regression case study”.
Wednesday 16th, 16:20 - 16:45.
Olha Bodnar; Alfred Link; Clemens Elster. “Objective Bayesian inference for random effects in a random
effects model”.
Wednesday 16th, 16:45 - 17:10.
André Rehage; Sonja Kuhnt. “Functional outlier detection using data depth in a thermal spraying
process”.
Wednesday 16th, 17:10 - 17:35.
Sonja Kuhnt; Riccomagno Eva; Rudak Nikolaus. “Methods from algebraic statistics to determine identifiable regression models from noisy designs”.
Wednesday 16th, 17:35 - 18:00.
Regional Statistics (Session 3)
Chair: Hartmut Bömermann, Room: D, abstracts see page 117 to 118
Ulrike Rockmann. “Indikatoren für den vorschulischen Bildungsbereich”.
Wednesday 16th, 16:20 - 16:45.
Stephanie Hirner; Michael Neutze. “Zensus 2011: Deutschlandweit kleinräumige Daten”.
Wednesday 16th, 16:45 - 17:10.
Timo Schmid; Marcus Groß; Ulrich Rendtel; Sebastian Schmon; Nikos Tzavidis. “Dichteschätzung von
Migranten auf Basis des Berliner Einwohnerregisters”.
Wednesday 16th, 17:10 - 17:35.
Flavia Suter. “Regionaler Bildungsatlas Hamburg”.
Wednesday 16th, 17:35 - 18:00.
Time Series with Structural Breaks (Session 2)
Chair: Roland Fried, Room: A, abstracts see page 119 to 120
Hernando Ombao. “Estimation of structural breaks and spatial boundaries in brain signals and images”.
Wednesday 16th, 16:20 - 17:10.
29
15.-18. September, Hamburg
Statistische Woche 2015
Gaby Schneider; Michael Messer; Stefan Albert; Julia Schiemann; Jochen Roeper; Ralph Neininger.
“A multi scale method for change point detection in point processes”.
Wednesday 16th, 17:10 - 17:35.
Béatrice Bucchia. “Long-run variance and change-set estimation for spatial data under change-point
alternatives”.
Wednesday 16th, 17:35 - 18:00.
DStatG & Italian Statistical Society (Session 1: Environmental Statistics and Climate
Change)
Chair: Daniel Ambach, Room: H, abstracts see page 121
Alessandro Fasso; Francesco Finazzi; Ferdinand Ndongo. “Airborne multipollutants population exposure in Europe using semiparametric spatio temporal models”.
Wednesday 16th, 16:20 - 17:10.
Daniel Ambach; Wolfgang Schmid. “Spatio-temporal wind speed forecasting”.
Wednesday 16th, 17:10 - 17:35.
Wednesday, September 16th, 2015, 18:30 - 19:00
There will be a sparkling wine reception during the poster session.
Poster Presentations
Room: Ellweinsaal
Christian Weiß. “Analysis and Modelling of Categorical Time Series”.
Lisiane Schnegelsberg; Steffen Liebscher; Thomas Kirschstein. “How to find the best publication
strategy”.
Moritz Heiden; Alain Hamid. “Forecasting volatility with empirical similarity and Google Trends”.
Horst Gabriel. “Arbeitsmarktindikatoren im regionalen Vergleich”.
Martin Biewen; Stefanie Seifert. “Potential Parenthood and Career Progression of Men and Women A Simultaneous Hazards Approach”.
Steffen Liebscher; Thomas Kirschstein. “The restlos package - robust estimation of location and
scatter”.
Danvee Floro; Björn van Roye. “The Responsiveness of Monetary Policy to Financial Stress: A Panel
Data Analysis”.
30
Statistische Woche 2015
15.-18. September, Hamburg
Daniel Ambach; Philipp Otto. “A survey on wind power in Germany and prediction of wind speed at
a wind farm”.
Ralf Münnich; Philip Rosenthal; Ekkehard Sachs. “Hybridalgorithmus zur Schätzung von robusten
räumlichen Small Area Modellen”.
Sebastian Leist. “Soziale Segregation im Schulsystem Hamburgs”.
Rafael Weißbach; Michael Herzog. “Regionaler Anteil kariesfreier Vorschulkinder - eine clusterrandomisierte Studie in Südhessen”.
Other events on Wednesday
09:00
10:00
14:10
15:10
14:30
18:00
18:00
19:00
- 11:30 : VDSt general assembly meeting, .Room D (Hörsaal 3)
: Harbor sightseeing: “Hafencity”
- 15:00 : InstantAtlas-Workshop, see page 3, .Room G
- 15:50 : Collogia presentation, see page 4, .Room G
: Harbor boat tour
- 18:45 : General Assembly Committee for Regional Statistics, .Room D (Hörsaal 3)
- 19:00 : JMP presentation, see page 4, .Room G
: Conference dinner, .Ellweinsaal
31
15.-18. September, Hamburg
Statistische Woche 2015
Thursday, September 17th, 2015, 09:00 - 10:40
Empirical Economics and Applied Economics (Session 2: Applied Microeconometrics)
Chair: Axel Werwatz, Room: C, abstracts see page 122 to 124
Christian Westphal. “The Fallacy of the Log-Ratio Standard for Econometric Analysis”.
Thursday 17th, 09:00 - 09:25.
Stefan Klößner; Ashok Kaul; Gregor Pfeifer; Manuel Schieler. “Synthetic Control Methods: Never Use
All Pre-Intervention Outcomes as Economic Predictors”.
Thursday 17th, 09:25 - 09:50.
Hans Manner; Michael Eichler; Dennis Türk. “Dynamic copula based multivariate discrete choice
models”.
Wednesday 16th, 09:50 - 10:15.
Stephanie Glaser; Robert Jung. “Modelling and Diagnostics of Spatially Autocorrelated Counts”.
Wednesday 16th, 10:15 - 10:40.
Empirical Finance (Session 2)
Chair: Vasyl Golosnoy, Room: E, abstracts see page 124 to 126
Sebastian Christoph Müller. “Normal Mixture variance states for structural identification of financial
market models”.
Thursday 17th, 09:00 - 09:25.
Saskia Rinke; Marie Holzhausen; Christian Leschinski. “True and Spurious Long Memory in Inflation
Rates”.
Thursday 17th, 09:25 - 09:50.
Alexander Jonen. “Risks and Opportunities of Social Trading: Econometric Analysis of Virtual Trades
and Returns”.
Thursday 17th, 09:50 - 10:15.
Vasyl Golosnoy; Markus Pape. “Tests for Location: An Analysis of Finite Sample Performance”.
Thursday 17th, 10:15 - 10:40.
VDSt: Jenseits von Registern und Umfragen: Nutzung und Potenzial von neuen
Datenquellen für Planung und Politik (Session 2)
Chair: Hartmut Bömermann, Room: G, abstracts see page 59 to 60
Tim Elrick; Matthias Plennert. “Anwendungsreif? Nutzung und Potenzial von Internetdaten für Stadtforschung und Raumbeobachtung”.
Thursday 17th, 09:00-09:45.
32
Statistische Woche 2015
15.-18. September, Hamburg
Günther Bachmann. “Die Kombination von Internetdaten und Statistikinformationen zur Bewertung
von Umweltqualität und -gerechtigkeit”.
Thursday 17th, 09:45-10:10.
Anne Seehase. “Die Analyse von Kaltmieten mit Online-Daten - Am Beispiel einer Quantilregression”.
Thursday 17th, 10:10-10:35.
Statistical Analysis of Network Data (Session 1)
Chair: Göran Kauermann, Room: A, abstracts see page 126 to 128
Julian Körber; Aßmann Christian. “Tensor regression models for multilayer networks with missing
values”.
Thursday 17th, 09:00 - 09:25.
Stephanie Thiemichen; Göran Kauermann. “Stable Exponential Random Graph Models with nonparametric components for large networks”.
Thursday 17th, 09:25 - 09:50.
Christoph Jansen. “Statistical network analysis of the international arms trade”.
Thursday 17th, 09:50 - 10:15.
Sebastian Leist; Marcus Pietsch. “Detecting Schooling Markets in the Federal State of Hamburg”.
Thursday 17th, 10:15 - 10:40.
Methodology of Statistical Surveys (Session 1: Weiterentwicklung
Haushaltsstatistiken, Calibration Methods)
Chair: Hans Kiesl, Room: D, abstracts see page 129 to 131
Karen Blanke; Thomas Riede. “Ergebnisse des ESSnet “Data Collection in Social Surveys Using Multiple Modes” (DCSS) im Kontext der Modernisierung der amtlichen Haushaltsstatistiken in Deutschland”.
Thursday 17th, 09:00 - 09:25.
Anne Konrad; Jan Pablo Burgard; Ralf Münnich. “Kohärente Schätzungen auf Personen- und Haushaltslevel”.
Thursday 17th, 09:25 - 09:50.
Martin Rupp; Ralf Münnich. “Zur Kombination von Optimierung und Balancierung in geschichteten
Zufallsstichproben”.
Thursday 17th, 09:50 - 10:15.
Siegfried Gabler und Jan-Philipp Kolb. “Zweistufige Auswahl und Analyse”.
Thursday 17th, 10:15 - 10:40.
33
15.-18. September, Hamburg
Statistische Woche 2015
Statistics in Natural Science and Technology (Session 3)
Chair: Sonja Kuhnt, Room: F, abstracts see page 131 to 132
Samson Adebayo; Ezra Gayawan; Christian Heumann; Christian Seiler. “Joint modelling of Anaemia
and Malaria in children under five in Nigeria”.
Thursday 17th, 09:00 - 09:25.
Peter-Th. Wilrich. “Sampling inspection by variables under Weibull distribution and Type I censoring”.
Thursday 17th, 09:25 - 09:50.
Jürgen Groß; Annette Möller. “AR modification of ensemble forecasts for temperature”.
Thursday 17th, 09:50 - 10:15.
Yarema Okhrin; Dominik Schneller. “Forecasting limit exceedances for environmental data using copulas”.
Thursday 17th, 10:15 - 10:40.
DStatG & Italian Statistical Society (Session 2: Environmental Statistics and Climate
Change)
Chair: Patrick Vetter, Room: H, abstracts see page 133
Francesco Lagona. “Dynamic mixtures of factor analyzers in environmental research”.
Thursday 17th, 09:00 - 09:50.
Patrick Vetter; Wolfgang Schmid; Reimund Schwarze. “Spatio-temporal statistical analysis of the
carbon budget of the terrestrial ecosystem”.
Thursday 17th, 09:50 - 10:15.
Coffee Break: 10:40 - 11:10
Plenary Statistical Analysis of Network Data
Chair: Göran Kauermann, Room: A
Plenary Presentation Statistical Analysis of Network Data: Michael Schweinberger. “Exponentialfamily random graph models with local dependence”.
Thursday 17th, 11:10-12:00.
Gumbel Lecture
Chair: Winfried Pohlmeier, Room: A
Gumbel Lecture: Christoph Rothe. “Partial identification in regression discontinuity designs with manipulated running variables”.
Thursday 17th, 12:00-12:50.
34
Statistische Woche 2015
15.-18. September, Hamburg
VDSt: “All Business is local” - Bereitstellung von Verwaltungsdaten für die
kommunale Daseinsvorsorge durch die Städtestatistik. (Session 3)
Chair: Helmut Schels, Room: G, abstracts see page 61
Andreas Kaiser. “Sozialmonitoring Integrierte Stadtteilentwicklung Hamburg: Die Diffusion eines Stadtbeobachtungssystems in lokale und fachliche Entscheidungsprozesse”.
Thursday 17th, 11:10-11:40.
Lutz Liffers. “Datengestütztes Bildungsmanagement in Städten - Erfahrungen und Beispiele”.
Thursday 17th, 11:40-12:10.
Irene Iwanow. “Verwaltungsdaten als Basis für kommunale Wohnungsnachfrage- und Wohnbauflächenprognosen”.
Thursday 17th, 12:10-12:40.
Lunch Break: 12:50 - 14:10
35
15.-18. September, Hamburg
Statistische Woche 2015
Thursday, September 17th, 2015, 14:10 - 15:50
Empirical Economics and Applied Economics (Session 3: Empirical Labor Economics)
Chair: Katharina Glass, Room: C, abstracts see page 134 to 135
Dominik Hanglberger; Joachim Merz. “Does Self-Employment Really Raise Job Satisfaction? Adaptation and Anticipation Effects on Self-Employment and General Job Changes”.
Thursday 17th, 14:10 - 14:35.
Benjamin Strohner; Rafael Weißbach. “Markovkette als Fertilitätsmodell: Zum Fehlen des Alters der
Mutter bei der ersten Geburt”.
Thursday 17th, 14:35 - 15:00.
Katharina Glass; Aleksei Netsunajev. “Unemployment Dynamics in the US and Euro Area: Do Uncertainty Shocks Matter?”
Thursday 17th, 15:00 - 15:25.
Methodology of Statistical Surveys (Session 2: Recent Developments in Survey
Statistics)
Chair: Ralf Münnich, Room: D, abstracts see page 136 to 137
Risto Lehtonen. “Recent developments in calibration methods for survey statistics”.
Thursday 17th, 14:10 - 15:00.
Timo Schmid; Nikos Tzavidis; Natalia Rojas-Perilla. “Applications of Mixed Models Methodology for
Small Area Estimation in Mexico”.
Thursday 17th, 15:00 - 15:25.
Saeideh Kamgar;Florian Meinfelder; Ralf Münnich. “Estimation within the New Integrated System of
Household Surveys in Germany”.
Thursday 17th, 15:25 - 15:50.
Statistical Theory and Methodology (Session 1)
Chair: Harry Haupt, Room: B, abstracts see page 137 to 138
Martin Wagner. “Some Extensions of Regression Based Cointegration Analysis”.
Thursday 17th, 14:10 - 15:00.
Oliver Stypka; Martin Wagner. “Testing for smooth transition cointegration with integrated or trending
transition variable”.
Thursday 17th, 15:00 - 15:25.
Rafael Kawka; Oliver Stypka; Martin Wagner. “IM-OLS Estimation and Fixed-b Inference for Seasonally
Cointegrating Regressions”.
Thursday 17th, 15:25 - 15:50.
36
Statistische Woche 2015
15.-18. September, Hamburg
Time Series with Structural Breaks (Session 3)
Chair: Gaby Schneider, Room: A, abstracts see page 139 to 140
Idris Eckley. “Recent advances in multivariate time series with structural breaks”.
Thursday 17th, 14:10 - 14:35.
Jean-Marc Freyermuth; Florent Autin; Gerda Claeskens; Christophe Pouet. “Minimax optimal detection of structure for multivariate data”.
Thursday 17th, 14:35 - 15:00.
Alexander Dürre; Roland Fried; Daniel Vogel. “A test for change in rank-correlation of multivariate
time series”.
Thursday 17th, 15:00 - 15:25.
Christoph Heuser. “Testing for a change in the correlation of time series”.
Thursday 17th, 15:25 - 15:50.
Data depth and classification (Session 1, joint with Spanish Statistical Society)
Chair: Karl Mosler, Room: F, abstracts see page 141 to 142
Alicia Nieto-Reyes; Heather Battey. “Functional data depth: diversity of aims”.
Thursday 17th, 14:10 - 14:35.
Rosa E. Lillo; Ramón Flores; Juan Romo. “Distances between functional samples based on depth
measures”.
Thursday 17th, 14:35 - 15:00.
Mia Hubert; Peter Rousseeuw; Pieter Segaert. “Multivariate Functional Outlier Detection”.
Thursday 17th, 15:00 - 15:25.
José R. Berrendero; Antonio Cuevas; José L. Torrecilla. “On the use of Radon-Nikodym derivatives
and reproducing kernels in functional classification”.
Thursday 17th, 15:25 - 15:50.
Computational Statistics and Data Analysis (Session 2)
Chair: Christian Weiss, Room: H, abstracts see page 143 to 145
Christian Weiß; Sebastian Schweer. “Bias Corrections for Moment Estimators in Poisson INAR(1) and
INARCH(1) Processes”.
Thursday 17th, 14:10 - 14:35.
Tobias Möller. “Self-exciting threshold binomial INARCH(1) process”.
Thursday 17th, 14:35 - 15:00.
37
15.-18. September, Hamburg
Statistische Woche 2015
Tobias Liboschik; Roland Fried; Konstantinos Fokianos. “Monitoring of count time series following
generalized linear models”.
Thursday 17th, 15:00 - 15:25.
Jan Vogler; Roman Liesenfeld; Jean-Francois Richard. “Likelihood based inference and prediction in
spatio-temporal panel count models for urban crimes”.
Thursday 17th, 15:25 - 15:50.
Coffee Break: 15:50 - 16:20
38
Statistische Woche 2015
15.-18. September, Hamburg
Thursday, September 17th, 2015, 16:20 - 18:00
Empirical Economics and Applied Economics (Session 4: Issues in Empirical
Economics)
Chair: Johannes Ludsteck, Room: C, abstracts see page 145 to 147
Jing Zeng. “Combining country-specific forecasts when forecasting Euro area macroeconomic aggregates”.
Thursday 17th, 16:20 - 16:45.
Christoffer Baum; Hans Lööf; Pardis Nabavi; Andreas Stephan. “A New Approach to Estimation of
the R&D-Innovation-Productivity Relationship”.
Thursday 17th, 16:45 - 17:10.
Jochen Lüdering. “The Measurement of Internet Availability and Quality in the Context of the Discussion on Digital Divide”.
Thursday 17th, 17:10 - 17:35.
Johannes Ludsteck; Ulrich Thomsen. “Imputation of the Working Time Info for the Employment
Register Data”.
Thursday 17th, 17:35 - 18:00.
Labour Market and Social Security (Session 1)
Chair: Holger Meinken, Room: D, abstracts see page 147 to 148
Thomas Weißbrodt. “Wer ist arbeitslos? Warum und wie viele?”
Thursday 17th, 16:20 - 16:45.
Michael Hartmann. “Langzeitarbeitslosigkeit - Begriff, Messung und wichtige Befunde”.
Thursday 17th, 16:45 - 17:10.
Anja Crößmann; Matthias Eisenmenger. “Die Erfassung von Erwerbstätigkeit durch unterschiedliche
Erhebungsmethoden”.
Thursday 17th, 17:10 - 17:35.
Methodology of Statistical Surveys (Session 3: Erhebungsmethoden)
Chair: Peter Schmidt, Room: D, abstracts see page 149 to 151
Ulrich Rendtel. “Warum im Zensus die Ergebnisse der Stichprobenmethode keine Benachteiligung der
groen Gemeinden darstellen: Eine Detektivarbeit.”
Thursday 17th, 16:20 - 16:45.
Christian Seiler; Klaus Wohlrabe. “Sample Size Determination in Business Tendency Surveys”.
Thursday 17th, 16:45 - 17:10.
39
15.-18. September, Hamburg
Statistische Woche 2015
Christian Hoops; Wolfgang Donsbach; Tobias Michael. “Analyse der Umfragewerte vor Bundestagsund Europawahlen”.
Thursday 17th, 17:10 - 17:35.
Carsten Jentsch; Eun Ryung Lee; Enno Mammen. “Parteien im politischen Spektrum: Statistische
Modellierung und Schätzung der Positionen aus Textdaten - Deutsche Bundestagswahlen 1990 2013”.
Thursday 17th, 17:35 - 18:00.
Time Series with Structural Breaks (Session 4)
Chair: Christoph Heuser, Room: A, abstracts see page 151 to 153
Martin Wendler; Annika Betken; Herold Dehling; Aeneas Rooch. “Robust Change Point Tests and
Subsampling under Long Range Dependence”.
Thursday 17th, 16:20 - 16:45.
Carina Gerstenberger. “A Wilcoxon-Based Testing Procedure for Distinguishing between Long-Range
Dependence and Short-Range Dependence with a Change in Mean”.
Thursday 17th, 16:45 - 17:10.
Christian Leschinski; Philipp Sibbertsen. “A Multivariate Local Whittle Estimator for the Long-Memory
Parameter in Presence of Trends and Structural Breaks”.
Thursday 17th, 17:10 - 17:35.
Tristan Hirsch. “Testing for Changes in Persistence in APARCH-ML Models”.
Thursday 17th, 17:35 - 18:00.
Data depth and classification (Session 2)
Chair: Juan Romo, Room: F, abstracts see page 153 to 155
Rainer Dyckerhoff; Pavlo Mozharovskyi. “Exact computation of the halfspace depth”.
Thursday 17th, 16:20 - 16:40.
Xiaohui Liu; Karl Mosler; Pavlo Mozharovskyi. “Tukey-trimmed regions via univariate projection quantiles”.
Thursday 17th, 16:40 - 17:00.
Ondrej Vencalek; Pavlo Mozharovskyi. “Depth-based classification for unimodal distributions”.
Thursday 17th, 17:00 - 17:20.
Oleksii Pokotylo; Pavlo Mozharovskyi. “Data depth and classification: R-package ”ddalpha””.
Thursday 17th, 17:20 - 17:40.
40
Statistische Woche 2015
15.-18. September, Hamburg
Tatjana Lange. “The mathematical link between discriminant function and transfer function for dynamic system description”.
Thursday 17th, 17:40 - 18:00.
Computational Statistics and Data Analysis (Session 3)
Chair: Peter Filzmoser, Room: H, abstracts see page 156 to 158
Roman Schefzik; Thordis Thorarinsdottir; Tilmann Gneiting. “Physically coherent probabilistic weather
forecasts via discrete copula-based ensemble postprocessing methods”.
Thursday 17th, 16:20 - 16:45.
Heiko Grönitz. “Regressionsanalysen für indirekte Daten”.
Thursday 17th, 16:45 - 17:10.
Stefan Rameseder; Dominik Liebl. “Bidding Curve Dynamics”.
Thursday 17th, 17:10 - 17:35.
Max Schneider; Gilles Blanchard; Christian Levers; Tobias Kuemmerle. “Spatial variation of drivers of
agricultural abandonment with spatially boosted models”.
Thursday 17th, 17:35 - 18:00.
Other events on Thursday
18:00 : DStatG General Assembly Meeting .Room A (Hörsaal 5)
11:15 : “BallinStadt” emigration museum
14:00 : Miniatur Wunderland: The largest model railway in the world
41
15.-18. September, Hamburg
Statistische Woche 2015
Friday, September 18th, 2015, 09:00 - 10:40
Labour Market and Social Security (Session 2)
Chair: Bernd Hofmann, Room: E, abstracts see page 158 to 160
Holger Meinken. “Neue Datenquelle für die Statistik zur Arbeitnehmerüberlassung”.
Friday 18th, 09:00 - 09:25.
Sandra Renn; Maren Rinn. “Wie lange dauern Beschäftigungsverhältnisse? Ein Werkstattbericht”.
Friday 18th, 09:25 - 09:50.
Gerald Seidel. “Der Einfluss regionaler Feiertage auf die frühzeitige Arbeitsuchend-Meldung”.
Friday 18th, 09:50 - 10:15.
Statistical Theory and Methodology (Session 2)
Chair: Rolf Tschernig, Room: B, abstracts see page 160 to 162
Matei Demetrescu; Danvee Floro. “Robust IV-based Panel Tests of Stock Return Predictability and
U.S. Monetary Policy Surprises”.
Friday 18th, 09:00 - 09:25.
Michael Scholz; Martin Wagner. “Large Initial Values and Time Series Tests of the Convergence
Hypothesis”.
Friday 18th, 09:25 - 09:50.
Philipp Otto; Robert Garthoff. “Generalized Spatial Autoregressive Conditional Heteroscedasticity”.
Friday 18th, 09:50 - 10:15.
Rolf Tschernig; Niels Aka. “Model Confidence Sets for Lag Selection in Autoregressive Models”.
Friday 18th, 10:15 - 10:40.
Nonparametric and Robust Statistics (Session 1)
Chair: Christine Müller, Room: C, abstracts see page 162 to 163
Gentiane Haesbroeck. “Multivariate dispersion estimated by the Minimum Covariance Determinant
Estimator”.
Friday 18th, 09:00 - 09:50.
Sebastian Szugat; Christine H. Müller. “Using data depth to find prediction intervals for state dependent Poisson processes with application to fatigue experiments”.
Friday 18th, 09:50 - 10:15.
42
Statistische Woche 2015
15.-18. September, Hamburg
Dieter Schell. “On Robust Tail Index Estimation”.
Friday 18th, 10:15 - 10:40.
Time Series with Structural Breaks (Session 5)
Chair: Martin Wendler, Room: A, abstracts see page 164 to 165
Joseph Tadjuidje Kamgaing; Claudia Kirch. “Change-point tests based on estimating functions”.
Friday 18th, 09:00 - 09:25.
Christina Stöhr. “Robust procedures in the sequential change-point analysis”.
Friday 18th, 09:25 - 09:50.
Leonid Torgovitski. “Perfect estimation in short panel data”.
Friday 18th, 09:50 - 10:15.
Jana Mareckova. “Detecting Structural Breaks in Small Samples with a Fusion Penalty”.
Friday 18th, 10:15 - 10:40.
Coffee Break: 10:40 - 11:10
Friday, September 18th, 2015, 11:10 - 12:50
Labour Market and Social Security (Session 3)
Chair: Horst Gabriel, Room: E, abstracts see page 166 to 167
Katharina Dengler. “Effectiveness of Sequences of Classroom Training for Welfare Recipients: What
works best in West Germany?”
Friday 18th, 11:10 - 11:35.
Eva Kopf;Katrin Hohmeyer. “Long-term care and labour market performance of welfare recipients in
Germany”.
Friday 18th, 11:35 - 12:00.
Henning Schridde. “Wohnsituation und -kosten in der Grundsicherung für Arbeitsuchende zwischen
Entspannung und Anspannung”.
Friday 18th, 12:00 - 12:25.
Statistical Theory and Methodology (Session 3)
Chair: Stepan Mazur, Room: B, abstracts see page 167 to 169
Clemens Elster; Gerd Wübbeler. “Objective Bayesian inference for linear Gaussian random coefficient
regression with inhomogeneous within-class variances”.
Friday 18th, 11:10 - 11:35.
43
15.-18. September, Hamburg
Statistische Woche 2015
Achim Dörre; Rafael Weißbach. “Bayesian Estimation of a Proportional Hazards Model for Doubly
Censored Durations”.
Wednesday 16th Poster presentation and Friday 18th, 11:35 - 12:00.
Miriam Isabel Seifert. “Extreme value analysis for elliptical distributions and their generalizations”.
Friday 18th, 12:00 - 12:25.
Taras Bodnar; Stepan Mazur; Krzysztof Podgorski. “Singular Inverse Wishart Distribution with Application to Portfolio Theory”.
Friday 18th, 12:25 - 12:50.
Nonparametric and Robust Statistics (Session 2)
Chair: Gentiane Haesbroeck, Room: C, abstracts see page 169 to 171
Stefan Meinke. “Modeling of crack propagation in different steel specimens with stochastic differential
equations by using trimmed likelihoods”.
Friday 18th, 11:10 - 11:35.
Nora Dörmann. “Nonparametric estimation of replacement rates”.
Friday 18th, 11:35 - 12:00.
Dominik Liebl. “Multiple Bandwidth Selection for Smoothing Sparse Functional Data with Covariate
Adjustment”.
Friday 18th, 12:00 - 12:25.
Alexandra Lauer;Henryk Zähle. “Nonparametric estimation of risk measures of collective risks”.
Friday 18th, 12:25 - 12:50.
44
Statistische Woche 2015
15.-18. September, Hamburg
1 Monitoring and Improving Surgical Outcome Quality
Bill Woodall1
Department of Statistics, Virginia Tech, USA
SECTION: Plenary
Some statistical issues related to the monitoring of surgical outcome quality will be reviewed. The
important role of risk-adjustment in healthcare, used to account for variations in the condition of patients,
will be described. Some of the methods for monitoring quality over time, including a new one, will be
outlined and illustrated with examples. The American College of Surgeons National Surgical Quality
Improvement Program (NSQIP) will be described, along with a case study demonstrating significant
improvements in surgical infection rates and mortality.
2 Exponential-family random graph models with local dependence
Michael Schweinberger1
Rice University, USA
SECTION: Plenary
Dependent phenomena, such as relational, spatial, and temporal phenomena, tend to be characterized
by local dependence in the sense that units which are close in a well-defined sense are dependent.
However, in contrast to spatial and temporal phenomena, relational phenomena tend to lack a natural
neighborhood structure in the sense that it is unknown which units are close and thus dependent. An
additional complication is that the number of observations is 1, which implies that the dependence
structure cannot be recovered with high probability by using conventional high-dimensional graphical
models. Therefore, researchers have assumed that the dependence structure has a known form. The
best-known forms of dependence structure are inspired by the Ising model in statistical physics and
Markov random fields in spatial statistics and are known as Markov random graphs. However, owing
to the challenge of characterizing local dependence and constructing random graph models with local
dependence, conventional exponential-family random graph models with Markov dependence induce
strong dependence and are not amenable to statistical inference. We take first steps to characterize local
dependence in random graph models and show that local dependence endows random graph models with
desirable properties which make them amenable to statistical inference. We show that random graph
models with local dependence satisfy a natural domain consistency condition which every model should
satisfy, but conventional exponential-family random graph models do not satisfy. In addition, we discuss
concentration of measure results which suggest that random graph models with local dependence place
much mass on graphs which resemble real-world networks, in contrast to conventional exponential-family
random graph models. We discuss how random graph models with local dependence can be constructed
by exploiting either observed or unobserved neighborhood structure. Last, but not least, we show that
if the neighborhood structure is unknown, the neighborhood memberships of almost all nodes can be
recovered with high probability provided that the random graph is large and the neighborhoods are
45
15.-18. September, Hamburg
Statistische Woche 2015
small but not too small. We present simulation results and applications to two real-world networks with
ground truth.
3 Analysis and Modelling of Categorical Time Series
Christian Weiß1
Helmut-Schmidt-Universität Hamburg, Germany, [email protected]
SECTION: Poster Presentation
During the last years, there has been growing interest in time series with a categorical range. Due to
this type of range, standard tools of time series analysis cannot be applied, not even a plot of such
categorical time series is easily possible. Therefore, this presentation aims at providing an overview of
possible ways of analyzing categorical time series. Among others, types of serial dependence within
categorical processes and corresponding measures are discussed, their properties are analyzed.
A possible application of such tools for analyzing categorical time series is the identification and
fitting of appropriate models. One candidate is the NDARMA model, which is a discrete counterpart to
the usual ARMA model and shows an ARMA-like serial dependence structure (in terms of the above
measures). But also further types of models for categorical time series are surveyed.
References:
Bagnato, L., Punzo, A., Nicolis, O., 2012. The autodependogram: a graphical device to investigate
serial dependences. J. Time Series Anal. 33, 233-254.
Biswas, A., Song, P.X.-K., 2009. Discrete-valued ARMA processes. Statist. Probab. Lett. 79, 18841889.
Jacobs, P.A., Lewis, P.A.W., 1983. Stationary discrete autoregressive-moving average time series
generated by mixtures. J. Time Series Anal. 4 (1), 19-36.
Weiß, C.H., 2008. Visual analysis of categorical time series. Stat. Methodol. 5 (1), 56-71.
Weiß, C.H., 2011. Empirical measures of signed serial dependence in categorical time series. J. Stat.
Comput. Simul. 81(4), 411-429.
Weiß, C.H., 2013. Serial dependence of NDARMA processes. Comput. Statist. Data Anal. 68, 213238.
4 How to find the best publication strategy
Lisiane Schnegelsberg1 , Steffen Liebscher, Thomas Kirschstein
Martin-Luther-Universität Halle-Wittenberg, Germany, [email protected]
SECTION: Poster Presentation
The amount of publications in peer-reviewed scientific journals and their quality are popular metrics
for assessing a researcher’s performance. Hence, an individual aiming to optimize his/her performance
has to make decisions about the journals where his/her research is to be published. The journals differ
w.r.t. various criteria such as impact, review time, review system, etc. Based on the individual’s priorities
(and other constraints) different publication strategies can be deduced.
46
Statistische Woche 2015
15.-18. September, Hamburg
In this work, we use the Graphical Evaluation and Review Technique (GERT) for describing the publication process. This technique allows to model each step in the publication process taking into account
stochastic components (i.e. probability of acceptance or review time). This way the publication process
can be assessed by performance indicators (as expected publication time or acceptance probability)
which helps selecting an appropriate journal considering individual preferences. The applicability of the
model to derive the optimal publication strategy will be illustrated with real- world data.
5 Forecasting volatility with empirical similarity and Google Trends
Moritz Heiden1 , Alain Hamid
Universität Augsburg, Germany, [email protected]
SECTION: Poster Presentation
This paper proposes an empirical similarity approach to forecast weekly volatility by using search engine
data as a measure of investors attention to the stock market index. Our model is assumption free
with respect to the underlying process of investors attention and significantly outperforms conventional
time-series models in an out-of-sample forecasting framework. We find that especially in high-volatility
market phases prediction accuracy increases together with investor attention. The practical implications
for risk management are highlighted in a Value-at-Risk forecasting exercise, where our model produces
significantly more accurate forecasts while requiring less capital due to fewer overpredictions.
6 Arbeitsmarktindikatoren im regionalen Vergleich
Horst Gabriel1
Bundesagentur für Arbeit, Germany, [email protected]
SECTION: Poster Presentation
Im Hinblick auf das Schwerpunktthema der Stat. Woche Indikatoren für das politische Monitoring“
”
können Deutschlandkarten mit Kreisgebieten für durch die Statistik der BA veröffentlichte Indikatoren
erstellt werden. Beispielsweise sind 8 Karten auf A0 geplottet. Folgende Indikatoren können dafür genutzt werden: * Arbeitslosenquote * Unterbeschäftigungsquote * Hilfequoten * Beschäftigungsquoten
* Langzeitarbeitslose * Ausländer * Personen mit Migrationshintergrund * Wohnkosten * Sanktionen
7 Potential Parenthood and Career Progression of Men and Women A Simultaneous Hazards Approach
Martin Biewen, Stefanie Seifert1
Universität Tübingen, Germany, [email protected]
SECTION: Poster Presentation
We analyze individual career courses of men and women in Germany. Our particular focus is on the
47
15.-18. September, Hamburg
Statistische Woche 2015
association between career transitions and individual fertility. In contrast to most of the literature we
focus on potential rather than realized fertility. Measuring career status in terms of the number of subordinates directly supervised by a given person, we focus on career transitions of men and women before
the birth of a first child. Our analysis is based on the ALWA data set from the Institute for Employment
Research. It contains the life histories of more than 10,400 individuals. To model the parenthood hazard
simultaneously with the career transition hazards we estimate a multivariate proportional hazard model
with competing risks, in which the parenthood hazard enters as an explanatory variable in the career
transition equations. As explanatory variables we consider socioeconomic variables as well as regional
information and effects of duration dependence and lagged duration dependence. In order to address
the aspect of unobserved individual characteristics, we also consider a fixed effects panel data model.
Our results suggest that the effects on the timing of first birth are relatively similar for women and men,
but gender differences are prevalent in the estimated coefficients of the career hazard equations. For
our main variable of interest, the results suggest that the parenthood hazard is significantly negatively
related to women’s horizontal job mobility. For men, the results suggest a significant positive association
of the parenthood hazard with upward transitions and insignificant effects for downward and horizontal
transitions. These results persist if we allow for a correlation of parenthood hazards with unobserved
individual characteristics such as time- or spell-constant personal preferences. In one specification, we
also find a significant (but smaller) negative effect on female upward career mobility.
8 The restlos package – robust estimation of location and scatter
Steffen Liebscher1 , Thomas Kirschstein
Martin-Luther-Universität Halle-Wittenberg, Germany, [email protected]
SECTION: Poster Presentation
The restlos package is an R package available on CRAN which implements several new methods for
(highly) robust estimation of multivariate location (mean and mode) and scatter. Inherently, all methods
can also be used for outlier detection. The methods are based on self-organizing maps (flood algorithm),
minimum spanning trees (pMST), Delaunay triangulations (RDELA), and minimum volume convex sets
(MVCH). The poster gives an overview on how to efficiently use the package. A small example is
provided for each method in order to demonstrate how the corresponding package functions should be
used and how the resulting numerical and graphical outputs can be interpreted. Current limitations of
the package and possible directions for future improvements are outlined as well.
9 Threshold Effects of Financial Stress on Monetary Policy Rules: A
Panel Data Analysis
Danvee Floro1 , Björn van Roye
University of Kiel, Germany, [email protected]
SECTION: Poster Presentation
We test for regime-switching changes in monetary policy’s response to increases in financial stress
48
Statistische Woche 2015
15.-18. September, Hamburg
across a panel of advanced and emerging economy central banks by employing a Factor Augmented
Dynamic Panel Threshold (FA-DPT) regression in order to tackle the issue of cross-section dependence.
We find evidence of an asymmetric monetary policy response from advanced economy central banks
in different financial stress regimes. We find that that the exceptional circumstances surrounding the
global financial crisis exacerbated the effect of financial stress on advanced economy central banks’
interest-rate settings, such that monetary policy easing was substantial during this period. Meanwhile,
emerging market central banks react to financial stress by raising short-term interest rates, but only up
to a certain threshold, beyond which the interest rate response is insignificant. Our results are specific
to the type of financial stress considered in the analysis. Stock market and banking stresses are driving
advanced economy central banks’ interest rate decisions to loosen monetary policy in the face of high
financial instability. On the other hand, emerging market central banks adjust interest rates positively in
response to the overall financial stress, banking and foreign exchange stress subcomponents only when
financial stress is low or moderate, and appear to be more sensitive to stock market stress. Our results
also confirm the intuition that currency stabilization is a major driver in most emerging market central
banks’ interest rate reaction functions.
10 A survey on wind power in Germany and prediction of wind speed
at a wind farm
Daniel Ambach1 , Philipp Otto
Europa-Universität Viradrina, Germany, [email protected]
SECTION: Poster Presentation
Germany is within the European Union the country with the largest amount of installed wind capacity in
2013 of 33, 730 MW, as the European Wind Energy Association (2014) points out. Moreover, Germany
is the third biggest wind electricity producer worldwide (see World Wind Energy Association 2014).
This poster presents the actual wind power situation in Germany. Moreover, we will cover the spatial
dependence structure of wind speed and wind power using stochastic matrices of spatial weights.
The importance of wind energy is increasing, but there is only one major problem of wind power,
which might be a barrier for increasing investments. Wind power is volatile because by now, there is no
feasible opportunity to store the amounts of wind power. When the wind speed rises, it is absolutely
essential that the wind turbines produce energy as quick as possible so that no electricity is wasted.
However, if there is no need for wind power at the electricity market it would be inefficient to produce
a high amount of power.
Hence, it is inevitable to have reliable predictions of the upcoming wind power. Alternatively, when
there is wind and the wind power could be sold at the market for a good price, it is straightforward to
have reliable short-term to medium-term predictions (up to 24 hours). Those predictions optimize the
power production and help to raise the interest of wind power. There exist a huge variety of different
wind speed and wind power forecasting approaches (see Jung and Broadwater 2015). For the prediction
interval up to 24 hours we obtain good results with time series models like for example Ambach and
Schmid (2015). Clearly, if we incorporate the spatial dimension, it is obvious that we can enhance the
forecasting performance. One recent approach is given by Zhu et al. (2014). To incorporate the spatial
dimension of wind speed into a time series model, we define the following matrix, which changes with
the measured wind direction and is given by
49
15.-18. September, Hamburg
Statistische Woche 2015

0& · · · & max (G(Z(t)1,m ), 0)k & · · · & max (G(Z(t)1,M ), 0)k


.. . . .. . . ..


.& . &.& . &.


k
k

ωt = 
 max (G(Z(t)h,1 ), 0) & · · · &0& · · · & max (G(Z(t)h,M ), 0)  ,


.. . . .. . . ..


.& . &.& . &.

(10.1)
max (G(Z(t)M,1 ), 0)k & · · · & max (G(Z(t)M,m ), 0)k & · · · &0
where the function G can be the sine or cosine function and k ∈ R\0. {ωt } is an (M · D) × (M · D)
weight matrix for m, h ∈ {1, . . . , M } stations at point t ∈ {1, . . . , T } and D response variables. The
function Z(t) is given by
Z(t)h,m = |azh,t − azh,m |
(10.2)
with {azm,t } being the observed wind direction at station m for time t. Besides, {azh,m } is the angle
from station h to station m and {azm,h } is the reverse angle from station m to station h. Obviously,
the off-diagonal entries of ω t weighting the spatial effects depend on the point of time t and the wind
direction at each station m. Consequently, this matrix is stochastic. On the contrary, classical spatial
weighting matrices are assumed to be non-stochastic. Furthermore, this weight matrix has to be extended
to incorporate the distances between all stations or an additional weight matrix should be introduced.
Finally, the main contribution of this presentation is an overview about the actual situation of wind
power in Germany. Moreover, we introduce a stochastic weight matrix which incorporates spatial information into the wind speed prediction model. Therefore, we are able to perform wind speed predictions
in space and time.
• 1 Ambach D., Schmid W. (2015); Periodic and long range dependent models for high frequency
wind speed data. Energy 82:277-293.
• 2 E.W.E.A. (2014); The European Wind Energy Association, Wind in power, 2013 European statistics, 2014, EWEA: Brussels.
• 3 Jung J., Broadwater R. P. (2014); Current status and future advances for wind speed and power
forecasting. Renewable and Sustainable Energy Reviews 31:762-777 .
• 4 Zhu X., Genton M.G., Gu Y., Xie L. (2014); Space-time wind speed forecasting for improved
power system dispatch. Test 23(1):1-25.
• 5 W.W.E.A. (2014); The World Wind Energy Association, World Wind Energy Half-Year Report
2014, WWEA, Bonn.
11 Hybridalgorithmus zur Schätzung von robusten räumlichen Small
Area Modellen
Ralf Münnich, Philip Rosenthal1 , Ekkehard Sachs
Universität Trier, Germany, [email protected]
SECTION: Poster Presentation
Der Bedarf an regional oder inhaltlich differenzierten Daten steigt in Politik, Wissenschaft und Wirtschaft stetig an. Aus Kostengründen werden Stichproben allerdings oft nur auf aggregierter Ebene gezogen. Sind die Stichprobenumfänge zu klein um eine angemessene Präzision klassischer Schätzverfahren
50
Statistische Woche 2015
15.-18. September, Hamburg
auf disaggregierter Ebene zu gewährleisten, können modellgestützte Small Area Methoden verwendet
werden. Sollen zudem räumliche Effekte berücksichtigt werden und die Schätzung robust gegenüber
Ausreißern sein, welche besonders bei Wirtschafts- und Einkommensdaten oft zu beobachten sind, kann
das robuste räumliche Small Area Modell verwendet werden.
Auf Grund der hohen Komplexität des Modells ist eine geschlossene Lösung der auftretenden Gleichungen nicht mehr möglich. Für eine Anwendung des Modells in der Praxis ist es daher wichtig, einen
Algorithmus zu finden, der in möglichst vielen Fällen brauchbare Ergebnisse liefert. Selbst das oft verwendete Newton-Verfahren stößt bei dem Versuch einer numerischen Lösung des robusten räumliche
Small Area Modells zunächst an seine Grenzen.
Es wird ein neues Hybridverfahren vorgestellt, bei dem das zu lösende Gleichungssystem in zwei Teile
aufgeteilt wird, die anschließend mit jeweils unterschiedlichen numerischen Algorithmen gelöst werden.
Anschließend wird diese neue Methode zur Berechnung von robusten räumlichen Small Area
Schätzern an Einkommensdaten aus einem EU-SILC ähnlichen Datensatz angewendet.
12 Soziale Segregation im Schulsystem Hamburgs
Sebastian Leist1 , Marcus Pietsch
Institut für Bildungsmonitoring und Qualitätsentwicklung (IfBQ), Hamburg, Germany, [email protected]
SECTION: Poster Presentation
Der Beitrag fokussiert, räumlich differenziert, soziale Segregationsprozesse beim Wechsel einer Schülerkohorte
von der Grundschule zur weiterführenden Schule. Die zugrundeliegende räumliche Gliederung erfolgt anhand von Schulregionen, die stochastisch mit Verfahren der sozialen Netzwerkanalyse definiert sind (Leist
& Pietsch, i.V.). Das Ausmaß an sozialer Segregation beim Übergang von der wohnortnahen Beschulung
zur auf Auswahl basierenden Beschulung wird durch das Abschneiden der Einzelschulen in der lokalen
Konkurrenzsituation beeinflusst (Harris, 2011 und Reardon & O’Sullivan, 2004). Methodische Grundlage der Schulregionen bilden stochastische Netzwerkverfahren zur Ermittlung von Gruppen anhand der
Akteursbeziehungen untereinander (Templin, 2008 und Krivitsky & Handcock, 2008). Das Beziehungsgeflecht zwischen den Schulen basiert auf den Übergängen sämtlicher Schüler von der Grundschule zur
weiterführenden Schule innerhalb der Freien und Hansestadt Hamburg.
13 Regionaler Anteil kariesfreier Vorschulkinder – eine
cluster-randomisierte Studie in Südhessen –
Rafael Weißbach1 , Michael Herzog
Uni Rostock, Germany, [email protected]
SECTION: Poster Presentation
Für Kinderärzte und Zahnärzte gibt der Zustand der Milchzähne unter anderem Hinweise auf das
Ernährungsverhalten der Kinder und die gesundheitliche Einstellung der Eltern. Erfreulich ist, dass
der Anteil kariesfreier Vorschulkinder in Deutschland in den letzten 30 Jahren durch zahnmedizinische
Präventionsmaßnahmen stetig zugenommen hat. Dieser positive Trend über den Zeitraum von 1978
51
15.-18. September, Hamburg
Statistische Woche 2015
bis 1998 wird beispielsweise anhand Hamburger Daten sichtbar. Hier stieg der Anteil kariesfreier 3- bis
6-Jähriger von 9,0% (1978) über 25,7% (1987) auf 65,9% (1998). Wiederkehrende Untersuchungen
in Regionen Mittel- und Südhessens durch eine Initiative hessischer Jugendzahnärzte ergaben in neuerer Zeit eine ebenfalls positive Entwicklung der Anteile kariesfreier 3- bis 5-jähriger Kinder von 66,8%
(2004) über 67,5% (2006) und 71,7% (2008) auf 74,2% (2011). Andere regionale Studien mit 3- bis
5-Jährigen berichten z.B. für den Raum Gießen 62,7% (1996), für Hannover 62,3% (2000), für den
Kreis Steinburg 69,5% (2003) und für den Ennepe-Ruhr-Kreis (nur 3- und 5-Jährige) 70,2% (2006). Die
Häufigkeit der Befunde zahngesund“, die dem Anteil kariesfreier Kinder in der untersuchten Populati”
on entspricht, gewinnt als Prävalenzmaß für Vergleiche und Trendbeobachtungen zur Zahngesundheit
sowie im Hinblick auf die Planung präventiver Interventionen in Kindergärten an Bedeutung. Trendergebnisse dienen unter anderem auch dem Einsatz und der Steuerung von Ressourcen. Insgesamt sind
kariesepidemiologische Studien bei Vorschulkindern im Vergleich zu solchen bei Schulkindern allerdings
selten. Lediglich in Hessen ist die Datenlage günstiger und wurde durch Studien der Gesundheitsämter
weiter verbessert. Ziel der vorliegenden Untersuchung in einem hessischen Landkreis im Jahr 2009 war
die Bestimmung der Anteile kariesfreier Vorschulkinder im Alter zwischen 3 und 5 Jahren erstmalig mit
dem Studiendesign einer randomisierten Clusterstichprobe aus der Grundgesamtheit der Kindergärten
des Landkreises. Die Ergebnisse dienten der Bewertung der zahnmedizinischen Gruppenprophylaxe nach
§ 21 SGB V und wurden mit denen anderer deutscher Studien über einen Zeitraum von 1996 bis 2011
verglichen. Weiterhin wurde statistisch geprüft, ob die vorhandenen Anteilswerte aus diesen Studien im
Zeitverlauf von 15 Jahren einen bestimmten Trend belegen können.
14 Ursachen und Wandel von Pflegebedürftigkeit
Rainer Unger1
SOCIUM - Forschungszentrum soziale Ungleichheit und Sozialpolitik, Uni Bremen, Germany, [email protected]
SECTION: DGD
In dem Übersichtsbeitrag werden eigene Befunde sowie der Forschungsstand zum Wandel der Lebenserwartung in und frei von Pflegebedürftigkeit für Männer und Frauen in Deutschland vorgestellt. Darüber
hinaus werden Gründe für diese Entwicklung dargestellt, ihre Bedeutung für den steigenden Pflegebedarf
diskutiert, sowie Schlussfolgerungen für den Wandel der Pflegedauern gezogen. Des Weiteren wird auf die
Rolle von sozialen Einflüssen auf die Pflegehäufigkeiten, beispielsweise in Form des Einkommens bei der
Erklärung unterschiedlicher Pflegeprävalenzen zwischen West- und Ostdeutschland sowie auf Netzwerkeinflüsse und ökonomische Ressourcen - auch in ihrem Wechselspiel - beim Pflegeeintritt eingegangen.
Der Beitrag schließt mit einer Prognose zur Entwicklung der Zahl der Pflegebedürftigen bis zum Jahr
2060 auf Grundlage der neuen 13. Bevölkerungsvorausberechnung des Statistischen Bundesamtes im
Vergleich zu bisherigen Prognosen.
15 Die Auswirkungen des demographischen Wandels auf die
Pflegeversorgung in Grenzregionen
Joscha Krause1 , Aiko Kühn, Ralf Münnich
Wirtschafts- und Sozialstatistik, Universität Trier, Germany, [email protected]
52
Statistische Woche 2015
15.-18. September, Hamburg
SECTION: DGD
Der demographische Wandel war in den vergangenen Jahren Gegenstand zahlreicher Forschungsarbeiten. Trotz weitreichender Konsequenzen für die Stabilität der sozialen Sicherungssysteme, wurden die
Folgen für Pflegenachfrage und -angebot bisher wenig thematisiert. Insbesondere für kleinere Regionen
gibt es kaum reliable Abschätzungen der möglichen Folgen. Besonders interessante Aspekte ergeben sich
in der Ausgestaltung der Pflegesituation in Grenzregionen. Zum Einen können die demographischen Entwicklungen zweier benachbarter Grenzgebiete sehr unterschiedlich ausfallen. Zum Anderen stellen die
wechselseitigen Interdependenzen eine Chance zur gemeinsamen Weiterentwicklung der Versorgungsstrukturen dar. Im Rahmen des Vortrages werden zwei Regionen untersucht, Basel/Lörrach sowie Luxemburg/Trier. In der Region Basel/Lörrach gehen die Prognosen zur demographischen Entwicklung
signifikant auseinander. Gerade für getrennte Betrachtungen der Pflege ergeben sich Prognosen, die
aufgrund von grenznahen Anpassungsprozessen kaum zutreffen werden. In den Forschungsarbeiten wird
Pflege und Pflegebedürftigkeit des Landkreises Lörrach sowie des Kantons Basel untersucht. Hierbei
steht die Pflege als gesamtgesellschaftliche Aufgabe sowie das Potential einer grenzüberschreitenden
Pflegeregelung im Fokus. Die Ausgestaltung einer internationalen Pflegeregelung wird als Chance angesehen, die individuelle Pflegebelastung zu reduzieren und auch die Versorgungsqualität der Betroffenen
zu steigern. Neben der Region Basel/Lörrach wird die Entwicklung der Pflegeversorgung in der Region
Luxemburg/Trier analysiert. Hier ergeben sich Differenzen aufgrund von sprachlichen Unterschieden sowie einer stärkeren räumlichen Trennung. Im Rahmen der Untersuchungen wird eine Simulationsstudie
durchgeführt. Hierbei werden Bevölkerungsfortschreibungen mit Pflegeverläufen verknüpft, um geeignete Prognosen von Pflegeangebot und -nachfrage quantifizieren zu können. Ein besonderes Augenmerk
wird auf zwei Aspekte gelegt:
1. Die Entwicklung der Pflegeverläufe in Bezug auf die Pflegestufen könnten sich stark auf Pflegebedarf
und erwartete Kosten auswirken.
2. In Grenzregionen werden besondere Anpassungsprozesse in Bezug auf Wohnraum- und Pflegenachfrage erwartet.
Die Untersuchungen sollen die erwarteten Unterschiede aufzeigen sowie mögliche Anpassungseffekte
quantifizieren.
16 Risiko für Pflegebedürftigkeit von Demenzpatienten hängt vom
behandelndem Arzt ab
Anne Fink1 , Gabriele Doblhammer
Deutsches Zentrum für Neurodegenerative Erkrankungen, Bonn, Germany, [email protected]
SECTION: DGD
Vor dem Hintergrund der Bevölkerungsalterung wird sich die Anzahl von pflegebedürftigen Demenzerkrankten erhöhen, steigende Kosten für deren Versorgung sind zu erwarten. Die vorliegende Studie untersucht für Demenzpatienten mögliche Modifikatoren, die sowohl den Eintritt in die Pflegebedürftigkeit
als auch den Übergang in höhere Pflegstufen verzögern können. Es werden die Übergänge inzidenter
Demenzpatienten in Pflege und Tod in Abhängigkeit vom hauptsächlich behandelnden Arzt (Neuropsychiater vs. anderer Facharzt) und der Einnahme von Antidementiva untersucht. Dabei wird nach der
53
15.-18. September, Hamburg
Statistische Woche 2015
Pflegestufe unterschieden. Es wurden Längsschnittdaten der AOK für die Jahre 2006 bis 2010 verwendet. Für 10.043 inzidente Demenzfälle wurden Cox -Modelle durchgeführt, um das Risiko von Pflegebedürftigkeit und Tod, aufgegliedert nach Pflegestufen, zu analysieren, abhängig vom hauptsächlich behandelndem Arzt und der Einnahme von Antidementiva bereinigt für Alter, Geschlecht, kardiovaskuläre
Begleiterkrankungen und der vorherigen Pflegestufe. Patienten, die in erster Linie von Neuropsychiatern
behandelt wurden, hatten ein signifikant niedrigeres Risiko für Pflegebedürftigkeit als Patienten, die vor
allem von anderen Fachärzten behandelt wurden (1. Pflegestufe: RR = 0, 72, p = 0, 000; 2. Pflegestufe:
RR = 0, 78, p = 0, 000; 3. Pflegestufe: RR = 0, 67, p = 0, 001). Weiterhin wiesen sie ein geringeres
Sterberisiko auf. Die Einnahme von Antidementiva korrelierte mit einem erhöhten Risiko für Pflegebedürftigkeit (1. Pflegestufe: RR = 1, 66, p = 0, 000; 2. Pflegestufe: RR = 1, 50, p = 0, 000; 3. Pflegestufe: RR = 1, 48, p = 0, 000), aber mit einem geringeren Sterberisiko. Eine höhere Behandlungsrate
von Demenzpatienten durch einen Spezialisten ist mit einem geringerem Pflegebedürftigkeits- und Sterberisiko assoziiert. Eine medikamentöse Behandlung mit Antidementiva scheint mit einer Verlängerung
der Lebensjahre mit Demenz einherzugehen.
17 Entwicklung sektorübergreifender Versorgungsstrukturen –
Ergebnisse aus dem Modell Regionales Versorgungskonzept Geriatrie
Charlotte Şahin1 , Olaf Iseringhausen, Kira Hower, Anja Rethmeier-Hanke, Hans-Christian Körner,
Constanze Liebe, Uwe Borchers, Bernd Wedmann
Universität Bielefeld, Germany, [email protected]
SECTION: DGD
Hintergrund: Die Gesundheitsversorgung älterer, multimorbider Menschen ist komplex und erfordert, Bedarfslagen insbesondere im häuslichen Umfeld zu berücksichtigen. Eine spezialisierte, segmentierte medizinische Versorgung greift oft zu kurz. Neue Versorgungsmodelle wie das “Regionale Versorgungskonzept
Geriatrie” (RVG) setzen an vielschichtigen Unterstützungsbedarfen an, um Selbstständigkeit und den
Verbleib in der eigenen Häuslichkeit zu fördern. Die Bedeutung einer fallbezogenen, sektorübergreifenden
Koordination und Steuerung durch ein interdisziplinäres Case Management (CM) haben ein Klinikum
und Ärztenetz gemeinsam im Kreis Lippe (5-10
Fragestellung: Die formative Projektevaluation geht den Fragen nach, wie sich die Versorgungssituation geriatrischer Patienten in der Häuslichkeit darstellt, ob mit einem multidisziplinären, sektorenübergreifenden Versorgungsnetzwerk die Versorgung verbessert, Selbstständigkeit erhalten werden
kann und ob/wie Netzwerkstrukturen mit Leistungserbringeden und ggf. Angehörigen etabliert wurden.
Methode: Die Versorgungs- und Unterstützungsbedarfe der Teilnehmenden sowie die Etablierung
von Strukturen und Prozessen wurden in einem explorativen Studiendesign mittels Methodenmix untersucht. Die Ergebnisdarstellung umfasst geriatrische Assessments zu Beginn und nach 12 Monaten
(N=750, Sample n=380) sowie Struktureffekte (sektoren-/disziplinübergreifende Netzwerkbildung aus
Leistungserbringenden, Entwicklung eines geriatrischen Versorgungspfades).
Ergebnisse: Bei den Teilnehmenden besteht ein hoher Unterstützungsbedarf für funktionale Einschränkungen. Es sind keine Verschlechterungen der Selbstständigkeit (Barthel-Index) und der Alltagsfähigkeiten (IADL) eingetreten. Die körperliche Gesundheit bleibt stabil, das psychische Wohlbefinden hat sich signifikant verbessert (SF-12). Es zeigt sich eine hohe Akzeptanz und Zufriedenheit mit
54
Statistische Woche 2015
15.-18. September, Hamburg
dem CM. Die Case Managerinnen koordinieren den Versorgungsprozess und knüpfen ein individuelles
Versorgungsnetzwerk durch regelmäßigen Austausch.
Diskussion: Das Konzept RVG hat die Versorgung nachhaltig verbessert, indem Versorgungsstrukturen vernetzt und positive Outcomes hinsichtlich Gesundheit und Selbstständigkeit erzielt wurden.
Der Versorgungbedarf geriatrischer Patienten erfordert die systematische Vernetzung des medizinischen Sektors mit Unterstützungs- und Beratungsinstitutionen zur Förderung einer zielgerichteten,
bedürfnisorientierten Versorgung. Entscheidend und handlungsleitend sind die kontinuierlichen, koordinativen Leistungen der Case Managerinnen, die bedarfsorientiert umgesetzt und bei verändertem Hilfebedarf angepasst werden. E-Mail: [email protected]
18 Die Lebensqualität pflegender Angehöriger: Befunde aus dem
Deutschen Alterssurvey
Sonja Nowossadeck1 , Daniela Klaus
Deutsches Zentrum für Altersfragen, Berlin, Germany, [email protected]
SECTION: DGD
Die Zahl der Pflegebedürftigen steigt kontinuierlich. Im Jahr 2013 waren 2,6 Mio. Menschen in Deutschland pflegebedürftig - 30 Prozent mehr als 1999. Ein großer Teil dieser Pflegebedürftigen wird zu Hause
durch Angehörige versorgt. Etwa zwölf Prozent der 40- bis 85-Jährigen in Deutschland unterstützt mindestens eine gesundheitlich eingeschränkte Person regelmäßig. Das sind fast 5,4 Millionen Menschen.
Ein Drittel dieser Personen leistet Pflege. Anders formuliert: Die Pflegerate der 40- bis 85-Jährigen liegt
bei etwa vier Prozent. Hochgerechnet sind das 1,8 Millionen Menschen (Klaus & Tesch-Römer 2014).
Die Pflege von Angehörigen betrifft also einen großen Personenkreis und sie stellt häufig eine ernsthafte
Belastung für die Pflegenden dar. Wir möchten untersuchen, ob es Unterschiede gibt in der Lebensqualität von pflegenden Angehörigen und Nicht-Pflegenden. Hinweise darauf gibt es in der Literatur (vgl.
u.a. Winkler 2006, Perner et al. 2012, Kurz & Wilz 2011). Für die vorliegende Untersuchung werden
Daten des Deutschen Alterssurveys (DEAS) (Basisstichprobe 2008, n = 6.205) analysiert. Der DEAS ist
eine bundesweit repräsentative Quer- und Längsschnittbefragung von Personen, die sich in der zweiten
Lebenshälfte befinden (d. h. 40 Jahre und älter sind). Als Indikatoren für die Lebensqualität werden die
subjektive Gesundheit, die Lebenszufriedenheit sowie die Bewertung der sozialen Beziehungen der pflegenden Angehörigen untersucht. Mit Regressionsmodellen wird zum einen der Zusammenhang zwischen
der Übernahme von Pflegetätigkeiten und den genannten Lebensqualitätsindikatoren unter Kontrolle individueller demografischer und sozioökonomischer Faktoren untersucht. In einem nächsten Schritt wird
nur für die Gruppe der Pflegenden analysiert, ob bestimmte Merkmale der Pflege (Umfang der Pflege,
Art der Aufgaben, zu pflegende Person) mit der Lebensqualität zusammenhängen.
19 Gesundheit, Lebenssituation und soziale Unterstützung bei
pflegenden Angehörigen. Ergebnisse der Studie Gesundheit in
”
Deutschland aktuell“ 2012
Alexander Rommel1 , Cornelia Lange, Matthias Wetzstein
55
15.-18. September, Hamburg
Statistische Woche 2015
Robert Koch-Institut, Germany, [email protected]
SECTION: DGD
Hintergrund: In Deutschland werden etwa sieben von zehn pflegebedürftige Personen von Angehörigen
und ambulanten Pflegediensten zu Hause versorgt. Während die Unterstützung und Pflege nahestehender Menschen grundsätzlich einen wichtigen und positiven Beitrag zum Zusammenleben leistet, bringt
sie für die Betroffenen auch Belastungen mit sich. Bevölkerungsweite Daten zum Ausmaß und den
gesundheitlichen Folgen der Pflege Angehöriger in Deutschland sind aber bislang rar.
Fragestellung: Ziel ist es, die Häufigkeit der Angehörigenpflege in Deutschland differenziert nach
soziodemographischen Merkmalen zu beschreiben und den Zusammenhang mit der Gesundheit der Pflegepersonen anhand zentraler Indikatoren zu analysieren. Die soziale Unterstützung als wichtige Ressource
pflegender Angehöriger wird dabei besonders in den Blick genommen.
Methode: In der Studie “Gesundheit in Deutschland aktuell - GEDA 2012” wurden von 2012 bis 2013
über 19.000 Menschen zu ihrer gesundheitlichen Lage und ihrer Lebenssituation telefonisch befragt. Die
Studie ist repräsentativ für die volljährige, deutschsprachige Wohnbevölkerung in Privathaushalten, die
über Festnetzanschlüsse erreichbar ist. Integriert waren drei Fragen zur Pflege nahestehender Personen
(Leistungserbringung, Umfang der Leistungen, Beziehung zur pflegebedürftigen Person). Verglichen werden vor allem Nichtpflegende und Angehörige, die täglich mindestens zwei Stunden pflegen. Die soziale
Unterstützung wurde über die Oslo-3 Social Support Scale gemessen. Neben einer Frage zum allgemeinen Gesundheitszustand gehen die Indikatoren Rückenschmerzen, krankheitsbedingten Einschränkungen
und starke seelische Belastungen in die Bewertung der gesundheitlichen Lage ein. Die Kontrolle wichtiger
Einflussfaktoren erfolgt über logistische Regression.
Ergebnisse: Nach Ergebnissen von GEDA 2012 pflegen 8,7% der Frauen und 4,9% der Männer
regelmäßig eine pflegebedürftige Person. Damit gibt es etwa 4,7 Millionen pflegende Angehörige in
Deutschland. Nahezu neun von zehn pflegenden Angehörigen betreuen einen nahen Angehörigen innerhalb oder außerhalb des eigenen Haushalts, die übrigen unterstützen z.B. Freunde oder Nachbarn.
Insgesamt sind etwa zwei Drittel der pflegenden Angehörigen Frauen, unter jenen, die täglich zwei Stunden oder mehr pflegen, sogar über drei Viertel. Pflegende Angehörige sind zu einem geringeren Anteil
erwerbstätig als Nichtpflegende. Zudem berichten mit 36,1% Frauen und 37,7% der Männer pflegende Angehörige deutlich häufiger von einer geringen sozialen Unterstützung (Nichtpflegende: 17,1% vs.
16,2%). Pflegende Angehörige weisen signifikant häufiger als Nichtpflegende einen schlechten allgemeinen Gesundheitszustand auf und leiden stärker unter seelischen Belastungen und krankheitsbedingten
Einschränkungen. So bezeichnen 47,7% der pflegenden Frauen und 51,8% der pflegenden Männer ihren
Gesundheitszustand als schlecht oder sehr schlecht (Nichtpflegende: 30,6% vs. 27,4%). Vor allem bei
den Frauen bleiben diese Unterschiede auch nach Kontrolle von Alter, Bildung, Erwerbstatus und sozialer
Unterstützung bestehen. Eine höhere soziale Unterstützung ist sowohl bei pflegenden Angehörigen als
auch bei Nichtpflegenden positiv mit dem Gesundheitszustand assoziiert. Teilweise zeigt sich aber, dass
ein höheres Maß an sozialer Unterstützung die gesundheitlichen Belastungen pflegender Angehöriger
mindern kann. Insbesondere die Unterschiede in Bezug auf seelische Belastungen zwischen pflegenden
Angehörigen und Nichtpflegenden sind bei Personen mit geringer Unterstützung ausgeprägter aus als
bei Personen mit hoher Unterstützung.
Diskussion: Der überwiegende Teil der Pflegeleistungen in Deutschland wird nach wie vor privat erbracht. Der Anteil der Pflegenden liegt nach den Daten von GEDA 2012 deutlich über den Angaben
aus der Pflegestatistik. Dies deutet darauf hin, dass Pflegeleistungen auch ohne Pflegegeldbezug von
Angehörigen erbracht werden. Die Hauptlast der Pflege wird von Frauen getragen. Die damit verbunde-
56
Statistische Woche 2015
15.-18. September, Hamburg
nen Belastungen gehen mit einer signifikant schlechteren Gesundheit von Pflegenden einher. Dabei zeigt
sich die wichtige Bedeutung sozialer Unterstützung: Einerseits kann eine hohe soziale Unterstützung die
gesundheitlichen Folgen, die durch die Pflege Angehöriger entstehen, teilweise reduzieren. Andererseits
können pflegende Angehörige auf diese Ressource nur in deutlich geringerem Maß zurückgreifen.
Praktische Implikationen: Die Gesundheit pflegender Angehöriger ist eine wichtige Ressource, wenn
es darum geht, Pflegebedürftigen ein Leben in der gewohnten häuslichen Umgebung zu ermöglichen.
Die häusliche Pflege ist damit als eigenständiges Setting für die Entwicklung gesundheitsfördernder
Maßnahmen zu verstehen. Dabei sollten Ansätze, die bspw. über die Quartiersentwicklung die soziale
Einbindung der Betroffenen verbessern können, verstärkt berücksichtigt werden.
20 Zusammenfassung zu Prognose des informellen
Betreuungspotentials Älterer durch Ältere bis 2050
Benjamin Strohner1
Universität Rostock, Germany, [email protected]
SECTION: DGD
Im Verlauf des demografischen Wandels in Deutschland schrumpft und altert die Bevölkerung bei
gleichzeitig steigender Anzahl der Hilfe- oder Pflegebedürftigen. Daraus ergibt sich das Problem der Sicherstellung der Versorgung dieser Bedürftigen. Eine politisch favorisierte Möglichkeit zur Lösung dieses
Problems stellt die Nutzung von informellen Betreuungspotentialen Älterer (50+jähriger) aber noch nicht
bedürftiger Teile der Bevölkerung dar. In diesem Aufsatz sollen durch eine Hochrechnung des Betreuungspotentials für 2012 und eine Prognose des Betreuungspotentials von 2013 bis 2050 die Möglichkeiten
und Grenzen dieses Lösungsansatzes ausgeleuchtet werden. Das Betreuungspotential besteht hier nur
aus Personen, die eine so enge Beziehung zu hilfe- oder pflegebedürftigen Personen aufweisen, dass eine
informelle Betreuungsleistung auch höchstwahrscheinlich stattfinden wird. Die genutzte Untersuchungsmethode ist eine quotenbasierte Zeitreihenanalyse und -prognose. Die Untersuchung wird auf Basis von
Daten des Sozioökonomischen Panels (SOEP) und der Pflegestatistik des Statistischen Bundesamtes
durchgeführt. Im Ergebnis stellt sich das Verhältnis von Pflegebedürftigen zu Betreuungspotential bei
den Älteren 2012 als ungünstig dar und verschlechtert sich in der Zukunft weiter. Zusätzlich sinkt die
gesundheitliche Eignung des Betreuungspotentials. Dazu wird die Belastung der einzelnen Personen des
Betreuungspotentials in Gestalt der Anzahl und Schwere der potentiellen Betreuungs- und Pflegefälle
zunehmen. Daher kann das informelle Betreuungspotential älterer Teile der Bevölkerung nur einen nicht
ausreichenden Beitrag zur Lösung des Versorgungssicherstellungsproblems leisten.
21 Regionalität des Bedarfes an den Gesundheitsberufen - Ergebnisse
der regionalen BIBB-IAB-Qualifikations- und Berufsfeldprojektionen
Betül Güntürk-Kuhl1 , Caroline Neuber-Pohl
SECTION: DGD
57
15.-18. September, Hamburg
Statistische Woche 2015
Bedingt durch die Alterung der Gesellschaft wird die Nachfrage nach Pflegeleistungen sowie die
Beschäftigung in Senioreneinrichtungen oder ambulanten Pflegediensten in Zukunft massiv ansteigen
und den Arbeitsmarkt nachhaltig beeinflussen. Anhand von BIBB-IAB-Qualifikations- und Berufsfeldprojektionen (QuBe-Projekt) werden modellbasiert die derzeitig bereits beobachtbaren Trends am Arbeitsmarkt fortgeschrieben und somit ein möglicher Entwicklungspfad des Arbeitskräfteangebots und der
-nachfrage aufgezeigt. Differenziert nach sechs Regionen Deutschlands (Norddeutschland, NordrheinWestfalen, Mitte-West, Baden-Württemberg, Bayern und Ostdeutschland) ist es möglich, für das Berufshauptfeld der Gesundheitsberufe differenzierte Aussagen über regionale Wirtschaftsstrukturen und
Arbeitskräfteengpässe zu treffen. Für Gesamtdeutschland betrachtet ist für die Gesundheitsberufe ab
dem Jahr 2025 sowohl nach Köpfen als auch nach Stunden ein Arbeitskräfteengpass zu erwarten, der
sich bei gleichbleibenden Verhaltensweisen (Lohnentwicklung, berufliche Flexibilität etc.) im Jahr 2030
noch weiter verschärfen wird. Die Nachfrage nach Berufen wird allerdings stark durch die regionale
Wirtschaftsstruktur beeinflusst, wodurch sich regionale Diskrepanzen ergeben. Gespiegelt am gesamtdeutschen Durchschnitt ist die Zahl der Erwerbstätigen in der Branche Gesundheits- und Sozialwesen“
”
in den Bundesländern Berlin, Mecklenburg-Vorpommern und Schleswig-Holstein mit einer Abweichung
von mindestens einem Prozentpunkt in 2011 besonders hoch. Während in den Regionen Nord und
Nordrhein-Westfalen auch in Zukunft der Bedarf an Fachkräften in den Gesundheitsberufen gedeckt
wird, zeichnen sich in den anderen vier Regionen zunehmende Knappheiten am Arbeitsmarkt ab. In der
Region Mitte-West wird dieser ab 2025 und in Baden-Württemberg ab 2020 aufgrund des besonders
großen Bedarfszuwachses erwartet. Bayern ist das einzige Bundesland, das keinen Bevölkerungsrückgang
erlebt, was auch mit einem steigenden Bedarf an Erwerbstätigen im Gesundheitswesen einhergeht. Mit
einem Engpass in den Gesundheitsberufen muss hier ab 2020 gerechnet werden. Insgesamt werden die
größten Rekrutierungsschwierigkeiten Bayern und Baden-Württemberg betreffen. In Ostdeutschland werden der Bevölkerungsrückgang und die Alterung der Gesellschaft die deutlichsten Spuren hinterlassen.
In den Gesundheitsberufen wird ein Arbeitskräfteengpass ab 2020 erwartet.
22 Was (gleich) nach dem Zensus kommt – Informationsmanagement
auf Registerbasis. Beispiele und Perspektiven aus Europa
Bettina Knauth1
Eurostat - European Commission, Luxembourg, [email protected]
SECTION: VDSt
Die letzte Zensusrunde (2011) hat gezeigt, dass Zensusoperationen in Europa immer vielgestaltiger
werden und dabei auch insbesondere registergestützte Zensen immer häufiger zum Einsatz kommen. Der
Vortrag beleuchtet die Vorteile einer solchen Nutzung von Registern und erläutert die dafür notwendigen
Voraussetzungen anhand der erfolgreichen Registerzählungen in Dänemark und Österreich. Abschließend
wird aufgezeigt, welche Unterstützung von Eurostat, dem statistischen Amt der Europäischen Union, für
Mitgliedsländer zu erwarten ist, die in der Zukunft verstärkt Register für die Durchführung ihres Zensus
nutzen wollen.
58
Statistische Woche 2015
15.-18. September, Hamburg
23 Eins für alle“ - Die Nutzung zentraler Register für Aufgaben eines
”
nationalen Zensus und die kommunale Planung in den Niederlanden
Eric Schulte Nordholt1
Census Statistics Netherlands, The Hague, The Netherlands, [email protected]
SECTION: VDSt
Es wird zunächst die Geschichte des Niederländischen Zensus dargestellt. Anschließend wird ein Blick
auf die Methodik des Zensus 2011 geworfen. Das statistische Amt der Niederlande publiziert die Zensusergebnisse auf fünf Ebene. Bemerkenswert ist dass es in den Niederlanden so wenig Diskussion gibt
über Bevölkerungsregister. Auch die darauf basierte Zensusergebnisse sind unumstritten. Es wird aufgezeigt, auf welche Art andere europäische Länder den Zensus 2011 durchgeführt haben. Die Basis für den
Europäischen Zensus 2011 ist die Verordnung über Volks- und Wohnungszählungen. Im Rahmen dieser
Verordnung standen den Ländern verschiedene Methodiken zur Durchführung offen. In den Niederlanden wurde zuletzt im Jahr 1971 ein traditioneller Zensus durchgeführt. Der Zensus 2011 war wie in den
Jahren zuvor ein Registerzensus. Ein Registerzensus ist wesentlich kostengünstiger als ein traditioneller
Zensus. Da die notwendigen Registerdaten bereits zur Verfügung stehen, liegen die Kosten eines Registerzensus bei nur ungefähr einem Prozent der Kosten für einen traditionell durchgeführten Zensus. Ein
zweiter Vorteil des Registerzensus ist, dass keine aktive Mitarbeit der Bevölkerung erforderlich ist. Es
ist daher zu erwarten, dass in Zukunft mehr europäische Länder Registerdaten für den Zensus benutzen
werden. Die Niederlande werden auch zukünftig einen Registerzensus durchführen. Die Verordnung über
Volks- und Wohnungszählungen für den Zensus 2011 hat auch für den 2021 durchzuführenden Zensus
Gültigkeit.
24 Anwendungsreif? Nutzung und Potenzial von Internetdaten für
Stadtforschung und Raumbeobachtung
Tim Elrick1 , Mattias Plennert
Institut für Geographie, Friedrich-Alexander-Universität Erlangen-Nürnberg, Germany, [email protected]
SECTION: VDSt
Im Zeitalter intensiver interaktiver Internetnutzung (web 2.0 ) und der immer leichteren Verfügbarkeit
großer digitaler Datenmengen (big data) im Internet ist es an der Zeit zu evaluieren, inwiefern sich diese
Daten für Planungs- und Entscheidungsprozesse in der Stadtpolitik und im Verwaltungshandeln verwenden lassen. Internetdaten, seien es Volunteered Geographic Information (VGI) oder nutzergenerierte
Daten aus sozialen Netzwerken, von Weblogs oder aus Foren, könnten neue Quellen systematischer
Raumbeobachtung insbesondere im städtischen Kontext darstellen, die zeitnah oder in Echtzeit erfasst
und ausgewertet werden können.
Der Vortrag wird auf die Möglichkeiten und Einschränkungen der Nutzung von Internetdaten an
konkreten Beispielen für die Stadtforschung eingehen und einen Überblick über die vorliegenden wissenschaftlichen Erkenntnisse der städtischen Raumbeobachtung anhand dieser Daten geben.
59
15.-18. September, Hamburg
Statistische Woche 2015
In einem zweiten Teil wird das Potenzial von Internetdaten am Beispiel des OpenstreetMap-Projektes
(OSM), das als eines der prominentesten Beispiele von Volunteered Geographic Information gilt, exemplarisch ausgeleuchtet. OpenStreetMap, das bereits seit dem Jahr 2004 existiert, versucht, durch freiwillige Nutzerbeiträge, die gebaute Umwelt und ihre Nutzungen möglichst genau in einer Datenbank,
respektive Karte, abzubilden und stellt damit eines der gut organisierten und strukturierten VGI-Projekte
dar, das sich als Ausgangspunkt für Nutzungsszenarien in der Stadtforschung anbietet. Im Vortrag wird
an Fallbeispielen erörtert, welches Nutzungspotenzial OpenStreetMap für die Raumbeobachtung bietet
und welche Besonderheiten bei seiner Nutzung zu beachten sind.
25 Umweltqualität und Umweltgerechtigkeit - Die Kombination von
Internetdaten und Statistikinformationen am Beispiel der
Wissenschaftsstadt Darmstadt
Günther Bachmann1
Amt für Wirtschaft und Stadtentwicklung, Darmstadt, Germany, [email protected]
SECTION: VDSt
Umweltbelastungen sind in Darmstadt sozial und räumlich ungleich verteilt. Am Beispiel einer hochbelasteten Straße mit einem starken Verkehrsaufkommen, insbesondere durch PKW und LKW, wird
aufgezeigt, wie es in Zusammenarbeit verschiedener Ämter und Behörden, darunter der Statistikabteilung, gelingt, gesundheitsrelevante Umweltbelastungen zu vermindern. Im Zuge der Kooperation wird
deutlich, dass sich häufig neben den gesundheitlichen Belastungen durch Umwelteinflüsse in den an
Verkehrsadern anliegenden Wohnquartieren auch soziale Problemlagen konzentrieren.
Mittlerweile sind öffentliche Nahverkehrsmittel wie Bus und Straßenbahn mit Umweltsensoren ausgestattet, die eine aktuelle Erfassung wichtiger Umweltparameter erlauben und diese im Internet visualisieren. Dies wird im Vortrag beispielhaft vorgestellt. Jedoch erst die Kombination aus Registerdaten
der Statistik, sozialräumlichen Analysen und lokaler Erfassung von Lärm und Luftschadstoffen ergibt
das ganze Bild. Wichtiges Ziel ist es, Mehrfachbelastungen bestimmter Quartiere und ihrer Bewohner
durch Umweltprobleme und soziale Benachteiligung zu erkennen und durch geeignete Maßnahmen mehr
Umweltgerechtigkeit zu erreichen.
26 Die Analyse von Kaltmieten mit Online-Daten - Am Beispiel einer
Quantilregression
Anne Seehase1
Amt für Statistik, Landeshauptstadt Magdeburg, Germany, [email protected]
SECTION: VDSt
Klassische Erhebungsformen für Mietspiegel stehen auf dem Prüfstand. In einem sehr dynamischen
Wohnungsmarkt verschleiert die Fokussierung auf Bestandsmieten der letzten Jahre den Blick auf das
derzeitig tatsächlich zu zahlende Mietniveau. Dies ist aber gerade für Wohnungssuchende und Neuan-
60
Statistische Woche 2015
15.-18. September, Hamburg
mietungen relevant. Einen besseren Einblick in den Status Quo des Mietmarktes ermöglichen demnach
Angebotsmieten.
Das klassische Zeitungsinserat als Plattform für Mietangebote wird mittlerweile durch eine große
Zahl an Online-Plattformen ergänzt bzw. ersetzt. Dies bietet den Vorteil, dass zeitnah ausreichend Daten
zum aktuellen Mietpreismarkt erhoben werden können. Die Verknüpfung der Angebote mit zusätzlichen
Online-Diensten, wie Google-Maps, ermöglicht zudem ohne großen Aufwand, die geografischen Koordinaten zu erfassen. Mit deren Hilfe können Lageeffekte direkt durch Verfahren der geografischen Gewichtung in die Analysen mit einbezogen werden, ohne zuvor explizit Wohnlagen definieren zu müssen.
Die Quantilregression eignet sich für die Analyse von Angebotsmieten besonders gut. Als robustes Verfahren wird die Schätzung nicht durch Ausreißer – beispielsweise aus den hochpreisigen Segmenten verfälscht. Neben einem Blick auf die zentrale Tendenz des Mietpreises in Form des bedingten Medians
können aber auch die besonders günstigen und besonders teuren Mietangebote, also die Ränder der
Mietpreisverteilungen in den Blick genommen werden. In Verbindung mit der geografischen Gewichtung
wird es so möglich, die räumlich bedingte Verteilung der Angebotsmieten über das gesamte Stadtgebiet
zu schätzen, um somit eine Vielzahl für die Stadtplanung und Sozial-Politik relevanter Fragestellungen
zu beantworten.
Ziel dieses Vortrages ist es, die Methode der geografischen gewichteten Quantilregression am Beispiel
der Analyse von Angebotsmieten der Stadt Magdeburg kurz dazustellen. Hierbei soll insbesondere auf die
Möglichkeiten zur Nutzung von Online-Daten sowie die Vor- und Nachteile der generellen Verwendung
von Angebotsmieten von Online-Portalen eingegangen werden.
27 Sozialmonitoring Integrierte Stadtteilentwicklung Hamburg: Die
Diffusion eines Stadtbeobachtungssystems in lokale und fachliche
Entscheidungsprozesse
Andreas Kaiser1
Behörde für Stadtentwicklung und Wohnen, Amt für Wohnen, Stadterneuerung und Bodenordnung, Abteilung Integrierte
Stadtteilentwicklung, Freie und Hansestadt Hamburg, Germany
SECTION: VDSt
Das Sozialmonitoring Integrierte Stadtteilentwicklung ist ein in Hamburg etabliertes kleinräumiges
Stadtbeobachtungssystem. Die Ergebnisse werden jährlich im Internet veröffentlicht (vgl. www.hamburg.
de/sozialmonitoring). Die Verwaltung ist damit in der Lage, unterstützungsbedürftige Quartiere
frühzeitig zu identifizieren und die Auswahl von Fördergebieten der Städtebauförderung auf eine objektive Datenbasis zu stützen. Bei der Erarbeitung gebietsbezogener Bestandsaufnahmen, Problem- und
Potenzialanalysen sowie Integrierter Entwicklungskonzepte (IEK) finden die Sozialmonitoring-Ergebnisse
regelmäßig Anwendung. Auch bei Zwischenbilanzierungen zur Fortschreibung der IEKs und Bilanzierungen am Ende der städtebaulichen Förderung wird eine Bewertung der Sozialmonitoring-Ergebnisse
vorgenommen. Dafür werden sowohl die Sozialmonitoring-Ergebnisse in Tabellen- und Kartenform als
auch die Datengrundlagen über einen Datenpool innerhalb des Verwaltungsnetzes bereitgestellt.
Die Ergebnisse des Sozialmonitorings und die über den Datenpool bereitgestellten Daten werden
darüber hinaus von den unterschiedlichen Stellen in der Verwaltung als Grundlage für bezirkliche und
gesamtstädtische sozialräumliche Planungen genutzt. Sie unterstützen damit die Ausrichtung von Fach-
61
15.-18. September, Hamburg
Statistische Woche 2015
politiken (unter anderem Bildung, Soziales, Wohnungsbauprogramme, Flächenmanagement, Freiraumversorgung) auf ausgewählte Stadtteile und Quartiere.
Das Sozialmonitoring hat in Hamburg zu verbesserten, aktuellen und in der gesamten Verwaltung
einheitlichen Datengrundlagen beigetragen. Außerdem wurde eine standardisierte und damit über die
gesamte Stadt vergleichbare Auswertungsmethodik eingeführt, die eine transparente und übersichtliche
Darstellung komplexer Sachverhalte unterstützt.
28 Datengestütztes Bildungsmanagement in Städten – Erfahrungen
und Beispiele
Lutz Liffers1 , Katja Geerdes
Transferagenturen für Großstädte bei der Dt. Kinder- und Jugendstiftung, Germany
SECTION: VDSt
Insbesondere Großstädte stehen vor umfangreichen Veränderungen gesellschaftlicher und wirtschaftlicher Art: demografischer Wandel, Zuwanderung, zunehmenden soziale Spaltung, angespannte kommunale Haushalte, Wettbewerb um Fachkräfte und Unternehmen und vieles mehr. Bildung stellt eine
Schlüsselressource zur Bewältigung dieses Wandels dar. Den Kommunen kommt hierbei eine besondere
Rolle zu, da sie der Ort sind, an denen Bildungsangebote gestaltet werden und wo sich Erfolge und
Misserfolge von Bildung unmittelbar auswirken.
Vor diesem Hintergrund hat sich in den vergangenen zwei Jahrzehnten das Selbstverständnis der Kommunen vom reinen Verwalten hin zum Gestalten, Steuern und Koordinieren des kommunalen Bildungswesens gewandelt: Kommunalverwaltungen nehmen im Rahmen einer erweiterten Schulträgerschaft Einfluss auf die inhaltliche Gestaltung des Schulwesens, betreiben qualitativen und quantitativen Ausbau
der frühkindlichen Bildung, sind Träger der Jugendhilfe und erkennen zunehmend die Bedeutung kultureller Bildung. Diese Aufgaben kann eine Kommunalverwaltung nicht alleine bewältigen, dazu bedarf
es einer strukturierten Vernetzung aller Bildungsakteure unter Koordinierung durch die Kommune. Das
Bildungsmonitoring dient hierbei als Instrument zur Unterstützung für Entscheidungen und Schwerpunktsetzungen im kommunalen Bildungswesen.
29 Verwaltungsdaten als Basis für kommunale Wohnungsnachfrageund Wohnbauflächenprognosen
Irene Iwanow1
Leibniz-Institut für ökologische Raumentwicklung, Germany, [email protected]
SECTION: VDSt
Die Rahmenbedingungen kommunaler Wohnungsmärkte ändern sich kontinuierlich, manchmal relativ
langsam, manchmal aber auch unerwartet schnell, wie z. B. die derzeitige Zuzugswelle in die Groß- und
Mittelstädte in Deutschland erkennen lässt. Obwohl Trends und Trendänderungen von Wanderungsbewegungen kaum vorhersehbar und sehr unsicher sind, benötigen Städte und Gemeinden dennoch kommunale Wohnungs- und Wohnbauflächenprognosen für einen Zeitraum von 10 bis 15 Jahren. Auch die
62
Statistische Woche 2015
15.-18. September, Hamburg
positive Bewältigung des demographischen Wandels erfordert sowohl vorausschauendes Denken auf der
Basis von kleinräumigen Bevölkerungs-, Haushalts- und Wohnungsprognosen als auch eine Anpassung
kommunaler Planungsstrategien.
Obwohl Kommunalprognosen enorm an Bedeutung gewinnen, weil wachsende und schrumpfende
Kommunen immer häufiger in unmittelbarer räumlicher Nähe liegen und deshalb Prognosen auf der Ebene von Landkreisen zu grob sind, entscheiden letztlich zwei Kriterien über die Qualität der Prognosen:
Sind die verwendeten Prognosemethoden für Kommunalprognosen geeignet und steht eine qualitativ ausreichende Datenbasis zur Verfügung? Ziel des Vortrages ist die Vorstellung einer Methodik zur Ableitung
kommunaler Szenarien zur Wohnungsnachfrage- und Wohnbauflächenentwicklung, welche insbesondere
auf Analysen von Datenbeständen der Kommunalverwaltung einschließlich der Auswertung von digitalen
kommunalen Planungsunterlagen basieren. Auch die kommunalen Ergebnisse der Zensuserhebung 2011
sowie forschungsbezogene Sonderauswertungen der amtlichen Statistik können die Datengrundlage der
Melderegister ergänzen. Ziel der vorgestellten Methode ist es, realitätsnahe Szenarien auf der Basis von
Verwaltungsdaten vorzustellen.
30 Der Regionale Wohlfahrtsindex - eine Alternative zum
Bruttoinlandsprodukt?
Hans Diefenbacher1 , Dorothee Rodenhäuser
Universität Heidelberg, Alfred-Weber-Institut/FEST, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Der Vortrag geht von der These aus, dass Politik, Medien und Öffentlichkeit in vielen Bereichen sich
an für die jeweiligen Problemstellung nicht angemessenen Zahlen orientiert: Ob Hochschulranking oder
Studienzulassungen, Prognosen über die Bevölkerungsentwicklung oder das Bruttoinlandsprodukt – von
diesen Zahlen können falsche Signale ausgehen.
Dies wird vor allem am Beispiel des Bruttoinlandsproduktes verdeutlicht und gezeigt, dass das BIP
kein brauchbares Maß zur Beschreibung der Wohlfahrt oder der Lebensqualität in einem Lande oder einer
Region wie einem Bundesland ist – selbst als Indikator der Wirtschaftstätigkeit ist es nur bedingt sinnvoll.
Der Nationale beziehungsweise Regionale Wohlfahrtsindex wird am Beispiel Deutschlands und verschiedener Bundesländer vorgestellt. Im Vergleich dazu werden auch andere Ansätze wie Indikatorensysteme,
etwa der Enquête-Kommission Wachstum, Wohlstand, Lebensqualität“, oder zusammengesetzte Indi”
ces wie der Human Development Index diskutiert. Der Vortrag schließt mit einem Plädoyer für einen
aufgeklärteren“ Umgang mit Statistik und stelle Thesen zu Möglichkeiten und Grenzen alternativer
”
Wohlfahrtsindikatoren zur Diskussion.
31 Statistische Indikatoren aus den Volkswirtschaftlichen
Gesamtrechnungen der Länder – 25 Jahre gesamtdeutsche
Wirtschaftsbeobachtung
Frank Thalheimer1
Statistisches Landesamt Baden-Württemberg, Germany, [email protected]
63
15.-18. September, Hamburg
Statistische Woche 2015
SECTION: Statistical Indicators for Policy Monitoring
Welchen Beitrag leisten die Länder zur konjunkturellen Entwicklung in Deutschland, wie hat sich die
Arbeitsproduktivität im regionalen Vergleich entwickelt, sind die privaten Einkommen schneller oder
langsamer als die Gesamtwirtschaft gestiegen und welche Region erreicht die höchste Wirtschaftskraft
in Deutschland wie im europäischen Kontext? Zu all diesen Fragen liefert der der Arbeitskreis Volkswirt”
schaftliche Gesamtrechnungen der Länder“ seit seiner Gründung im Jahre 1954 zentrale wirtschaftliche
Indikatoren für die Länder sowie die kreisfreien Städte und Landkreise in Deutschland. Schon kurz
nach der deutschen Wiedervereinigung am 3. Oktober 1990 fand bereits im Dezember 1990 in Berlin
die erste gesamtdeutsche Tagung des Arbeitskreises statt, unter Beteiligung der Statistischen Ämter
der 16 Länder. Somit leistet der Arbeitskreis nunmehr über insgesamt 25 Jahre eine gesamtdeutsche
Wirtschaftsbeobachtung. Die Ergebnisse der regionalen Volkswirtschaftlichen Gesamtrechnungen (VGR)
stellen damit das umfassendste statistische Instrumentarium der Wirtschaftsbeobachtung dar. Sie liefern
für Politik, Wirtschaft, Wissenschaft und Interessensverbände unverzichtbare Informationen.
Die Volkswirtschaftlichen Gesamtrechnungen basieren auf international vereinbarten Regeln und Konzepten. Diese werden in bestimmten Abständen angepasst, um neue ökonomische Sachverhalte adäquat
und vergleichbar abbilden zu können. Generell werden so die Ergebnisse der VGR in etwa fünfjährigen
Abständen revidiert, wie zuletzt 1999, 2005 und 2011. Die Generalrevision 2014 diente in erster Linie der Umsetzung des neuen Europäischen Systems Volkswirtschaftlicher Gesamtrechnungen (ESVG
2010), das für alle Mitgliedsstaaten der Europäischen Union die Methoden für die Berechnung der Aggregate der Volkswirtschaftlichen Gesamtrechnungen rechtsverbindlich festlegt. Das ESVG 2010 bringt
eine Vielzahl von konzeptionellen Änderungen mit sich. Darunter quantitativ am bedeutendsten ist die
geänderte Verbuchung von Forschungs- und Entwicklungsleistungen (FuE) als Investitionen, die zu einer
BIP-Niveauerhöhung führt. Im Jahr 2010 belief sich das nominale BIP in Deutschland nach der Revision
2014 auf rund 2 576 Milliarden Euro; das waren 81 Milliarden Euro oder 3,3 Prozent mehr als nach
alter Methodik. Zwischen den Ländern weisen die Niveauänderungen des BIP gegenüber den bisher
veröffentlichten Werten allerdings erhebliche Unterschiede auf.
32 Monitoring der Städtebauförderung in der vertikalen
Politikverflechtung
Jürgen Göddecke-Stellmann1
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR), Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Staatliche Förderprogramme bedürfen der politischen Legitimation. Deshalb ist der Nachweis der Wirksamkeit der Förderprogramme ein wesentliches Element der Städtebauförderung. Die Zwischenevaluierung des Programms Soziale Stadt (2004) war die erste Evaluierung eines Städtebauförderungsprogramms.
Eine Erkenntnis dieses Prozesses war, dass es an Datengrundlagen für Wirkungsanalysen fehlt. Vorgeschlagen wurde von den damaligen Evaluatoren der Aufbau eines systematischen Monitorings zur
Programmumsetzung. Die im Rahmen der Föderalismusreform von 2006 erfolgte Neuregelung des
Art. 104b brachte eine Informationspflicht für die Verwendung der Finanzhilfen mit sich. Bundestag, Bundesregierung und Bundesrat sind danach auf Verlangen über die Durchführung der Maßnahmen und die erzielten Verbesserungen zu unterrichten. Vor diesem Hintergrund sind Seitens des Bun-
64
Statistische Woche 2015
15.-18. September, Hamburg
des erhebliche Anstrengungen unternommen worden, die Informationsgrundlagen zur Umsetzung der
Städtebauförderungsprogramme auszubauen. Gemeinsam mit den kommunalen Spitzenverbänden haben Bund und Länder als Träger der Städtebauförderung 2009/2010 ein programmübergreifendes Evaluierungskonzept für die Städtebauförderung erarbeitet. Das Evaluierungskonzept gliedert sich in fünf
Module. Das Modul Grundlagen der Evaluierung“ zielt auf eine verbesserte quantitative Datenbasis für
”
die Städtebauförderprogramme. Im Zentrum dieses Moduls steht daher der Ausbau des quantitativen
Monitorings der Städtebauförderung im BBSR. Unterstützt von einer Expertengruppe ist ein Indikatorenkonzept zu zentralen Input-, Output- und Kontextindikatoren erarbeitet worden, das zusätzlich
zu den bereits vorhandenen Förderdaten und den Begleitinformationen aus der Programmaufstellung
als neues Element in das Monitoringsystem zur Städtebauförderung eingeht. Der Vortrag gibt einen
Überblick zum Zustandekommen des Indikatorenkonzeptes, zeigt die Einbettung des Monitorings in die
Politikberatung des BMUB auf und verdeutlicht durch exemplarische Auswertung den Erkenntnisgewinn
des erweiterten Monitorings der Städtebauförderung im BBSR.
33 Die Kennzahlen nach § 48a SGB II zum Vergleich der
Leistungsfähigkeit von Jobcentern
Jana Wyrwoll1 , Susanne Noll
Bundesagentur für Arbeit, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Mit § 48a SGB II forderte der Gesetzgeber im Sommer 2010 die Einführung eines Kennzahlenvergleichs, mit dem die Leistungsfähigkeit der Träger der Grundsicherung für Arbeitsuchende (Jobcenter) festgestellt und gefördert werden soll. Das Bundesministerium für Arbeit und Soziales (BMAS)
veröffentlicht seit 2011 monatlich bundesweit einheitliche Kennzahlen und Ergänzungsgrößen, mit denen die Leistungsfähigkeit der Jobcenter in Bezug auf drei Ziele gemessen wird: (1) Verringerung der
Hilfebedürftigkeit, (2) Verbesserung der Integration in Erwerbstätigkeit und (3) Vermeidung von langfristigem Leistungsbezug. Um die unterschiedlichen Rahmenbedingungen der Jobcenter zu berücksichtigen,
werden diese in Vergleichstypen zusammengefasst. Die Kennzahlen und Ergänzungsgrößen beruhen
auf Daten und Ergebnissen der amtlichen Statistik der Grundsicherung für Arbeitsuchende der Bundesagentur für Arbeit (BA). Die Grundsicherungsstatistik SGB II integriert Verwaltungsdaten der gemeinsamen Einrichtungen und Datenlieferungen der zugelassenen kommunalen Träger an die Statistik
der BA. Datenlücken werden durch Imputationsverfahren geschlossen. In dem Vortrag beschreiben wir
die Kennzahlen und Ergänzungsgrößen und deren Datengrundlage. Außerdem stellen wir die OnlineAuswerteplattform des BMAS und ein Excel-Analysewerkzeug vor, mit deren Hilfe die Kennzahlen und
Ergänzungsgrößen interaktiv ausgewertet werden können.
34 Pitfalls of the Cholesky Decomposition for Forecasting Multivariate
Volatility
Moritz Heiden1
Universität Augsburg, Germany, [email protected]
65
15.-18. September, Hamburg
Statistische Woche 2015
SECTION: Statistics in Finance
This paper studies the pitfalls of applying the Cholesky decomposition for forecasting multivariate
volatility. We analyze the impact of one of the main issues in empirical application of using the decomposition: The sensitivity of the forecasts to the order of the variables in the covariance matrix. We
find that despite being frequently used to guarantee positive semi-definiteness and symmetry of the
forecasts, the Cholesky decomposition has to be used with caution, as the ordering of the variables
leads to significant differences in forecast performance. A possible solution is provided by studying an
alternative, the matrix exponential transformation. We show that in combination with empirical bias
correction, forecasting accuracy of both decompositions does not significantly differ. This makes the
matrix exponential a valuable option, especially in larger dimensions.
35 Downside Risk Measure Performance under Changes in Volatility
Johannes Rohde1
Leibniz Universität Hannover, Germany, [email protected]
SECTION: Statistics in Finance
The appropriate evaluation of risk measures plays an essential role for a financial institution’s capital
requirement. Within this work it is derived which kind of risk measure is to be preferred over other risk
measures in order to identify a structural break in volatility or distribution. The evaluation of the risk
measures is performed by a loss function approach, in which losses are assigned in two different ways.
The theoretical results are surveyed for realistic evaluation horizons within a simulation study, which is
carried out as comparison of Value at Risk and Expected Shortfall. In addition, empirical evidence is
given by an application to different stock market indices.
36 Combining VaR Forecasts using Lasso Quantile Regression
Sebastian Bayer1
Universität Konstanz, Germany, [email protected]
SECTION: Statistics in Finance
This paper proposes the combination of Value-at-Risk forecasts using lasso quantile regression. The lasso
penalty simultaneously induces variable selection and coefficient shrinkage. Therefore, it is a suitable
penalization function for forecast combination as it permits the inclusion of a large number of forecasts
in the combination. Lasso penalized quantile regression optimizes a relevant loss function and includes
an intercept for bias correction. This is in sharp contrast to simple methods like the mean or median
forecast which are often used for forecast combination in the case of many predictors. The lasso quantile
regression approach is applied to each of the 30 constituents of the Dow Jones Index. It turns out that
the lasso combination technique performs well in terms of backtesting and tick losses. This applies
especially to the time of the global financial crisis when many of the 18 individual models fail but the
lasso combination maintains a good performance. Dynamically choosing the shrinkage parameter is not
required for good forecasting performance, a wide range of fixed values yield competitive forecasts.
66
Statistische Woche 2015
15.-18. September, Hamburg
Competing combination techniques like the mean forecast do not dominate, i.e. there is no forecast
combination puzzle in the quantile context.
37 Dynamic Optimization of Futures Portfolio Strategies under
Downside Risk Control
Rainer Schüssler1
Helmut-Schmidt University, Germany, [email protected]
SECTION: Statistics in Finance
We introduce a novel approach for interconnecting forecasting strategies, asset allocation and risk
management in a multi-period setting. The method involves defining a discrete set of one-period portfolio
allocation policies and choosing among them at portfolio revision dates within a stochastic dynamic
programming approach so as to maximize an investor’s expected utility under downside risk control.
Our model formulation can handle various types of asset return processes, allocation strategies and risk
preferences. The problem formulation, which is an approximation to the global solution, surmounts the
curse of dimensionality that is associated with time-varying investment opportunity sets and multiple
assets. While the complexity of of the dynamic optimization problem is unaffected by the number of
assets, it increases only linearly in the number of the considered asset allocation strategies. We apply our
technique to dynamic investment decision problems in futures markets and demonstrate its feasibility
and usefulness for asset allocation and risk management.
38 Forschungsdatenzentrum des ZEW (ZEW-FDZ)
Sandra Gottschalk1
Zentrum für Europäische Wirtschaftsforschung (ZEW) GmbH, Germany, [email protected]
SECTION: Business and Market Statistics
Das ZEW-Forschungsdatenzentrum (ZEW-FDZ) ermöglicht externen Wissenschaftlern den Zugang zu
Forschungsdaten des ZEW. Bei den im ZEW-FDZ angebotenen Forschungsdaten handelt es sich in erster
Linie um Mikrodaten von ZEW Unternehmensbefragungen – Themen sind u.a. Innovationsaktivitäten,
Entwicklung junger Unternehmen, Nutzung von Informations- und Kommunikationstechnologien. Ferner
können die Daten von ZEW Expertenbefragungen – z.B. ZEW Finanzmarkttest – und ZEW Personenbefragungen genutzt werden. Das ZEW-FDZ wurde im November 2012 vom RatSWD akkreditiert.
Externe Wissenschaftler können im Rahmen von wissenschaftlichen Projekten einen Antrag zur Nutzung von ZEW-Forschungsdaten stellen, mit denen sie in den FDZ-Räumen des ZEW arbeiten dürfen.
Daneben stellt das ZEW-FDZ externen Wissenschaftlern einige ZEW Forschungsdaten in einer faktisch
anonymisierten Form als Scientific-Use-Files zur Verfügung, die außerhalb des ZEW-FDZ in der eigenen
Forschungseinrichtung genutzt werden können. Einzelne Datensätze des Mannheimer Innovationspanels
gibt es auch als Education-Use-Files für den Einsatz in der Lehre. Die Nutzung der Daten ist im Allgemeinen kostenlos. Im Jahr 2014 nutzen 62 externe Wissenschaftler die Scientific-Use-Files des ZEW-FDZ.
Zu einem oder mehreren Gastaufenthalten ans ZEW kamen 20 Forscher, die Education-Use-Files des
MIP wurden von vier Nutzern in Lehrveranstaltungen eingesetzt.
67
15.-18. September, Hamburg
Statistische Woche 2015
39 Herausforderungen bei der Operationalisierung des
Forschungsbegriffs in der FuE-Erhebung
Andreas Kladroba1
Stifterverband für die Deutsche Wissenschaft, Germany, [email protected]
SECTION: Business and Market Statistics
Gemäß EU-Verordnung 995/2012 sind alle EU-Mitgliedsländer verpflichtet regelmäßig Daten zu Forschung und Entwicklung (FuE) zu liefern. Methodisch stützt sich die Verordnung auf das sogenannte
Frascati-Handbuch der OECD. In diesem sind als Kernindikatoren für die Quantität von FuE in Unternehmen, Hochschulen und staatlichen Forschungseinrichtungen die internen FuE-Aufwendungen sowie
das FuE-Personal definiert. Diese Definition findet sowohl in der wissenschaftlichen als auch in der politischen Praxis inzwischen breite Akzeptanz. Nicht desto weniger ist die Fokussierung auf diese beiden
Variablen wegen der extremen Heterogenität sowohl der wissenschaftlichen Institutionen als auch der
Wissenschaftsbereiche nicht unproblematisch. Der Vortrag zeigt anhand ausgewählter Beispiele Vor- und
Nachteile der im Frascati-Handbuch favorisierten Kernindikatoren auf. Darüber hinaus werden mögliche
Alternativen diskutiert. Dabei wird nicht nur der Frage nach weiteren möglichen Indikatoren nachgegangen, sondern es werden auch Unterschiede aufgezeigt, die sich aus dem Ablauf des Forschungsprozesses
und sogar dem Zeitpunkt, an dem gemessen wird, ergeben. Eine wichtige Ergänzung soll dabei auch
das Selbstverständnis der Betroffenen darstellen. Die Diskussion zeigt allerdings relativ schnell, dass
weitere Indikatoren eher als ergänzende Information zu verstehen sind als als möglicher Ersatz für FuEAufwendungen und FuE-Personal.
40 Digitale Revolution - (wie) nimmt sie die Statistik wahr?
Michael Grömling1
Institut der deutschen Wirtschaft Köln, Germany, [email protected]
SECTION: Business and Market Statistics
Bei der Messung und Interpretation des sektoralen Strukturwandels sind insbesondere Veränderungen
der Güter bedeutsam. Vor allem wenn es im Gefolge von Basistechnologien zu größeren und mit den
herkömmlichen Klassifikationen nicht messbaren Veränderungen kommt. Neue Güter und der damit verbundene Strukturwandel sind somit oftmals über einen bedeutsamen Übergangszeitraum nicht sichtbar.
Dieses Problem wurde bereits im Gefolge der Diskussion um die sogenannte New Economy“ diskutiert.
”
Die zunehmende Produktion und Verwendung von Informations- und Kommunikationstechnologien und
die damit einhergehenden Veränderung im Branchengefüge einer Volkswirtschaft warfen eine Reihe von
statistischen Messproblemen auf. Jüngst hat diese Diskussion neuen Auftrieb infolge der sogenannten
Digitalen Revolution“ bekommen. Moderne digitale Dienstleistungen (z.B. Musik, Spiele, Lexika, Vor”
lesungen) werden oftmals kostenlos im Internet angeboten. Mit der herkömmlichen Messung in den VGR
erscheinen die tatsächlich genutzten, meist kostenlosen Daten und Dienste nur unzureichend, zum Teil
überhaupt nicht im gemessenen Konsum sowie entsprechend auf der Entstehungs- und Einkommensseite
des BIP. Ähnliches kann auch für den datenbezogenen Leistungsaustausch zwischen Unternehmen gel-
68
Statistische Woche 2015
15.-18. September, Hamburg
ten. Diese neuen Güter verzerren offensichtlich nicht nur das Niveau und die Struktur der Entstehungs-,
Verwendungs- und Einkommensseite des BIP. Auch die Wachstumsraten des BIP insgesamt und seiner
Teilbereich können vor allem in den Übergangsphasen solcher technologischen Basisinnovationen und
der Einführung neuer Güter unzureichend ausgewiesen werden – mit z. B. entsprechenden Auswirkungen
auf die Produktivitätsmessung.
41 Interaktive und plattformunabhängige Lernobjekte für die
Statistikausbildung
Hans-Joachim Mittag1
FernUniversität Hagen, Germany, [email protected]
SECTION: Education and Training
Es wird eine neue und frei zugängliche Web-App für die grundständige Statistikausbildung vorgestellt.
Die App liegt in einer englischen und in einer erweiterten deutschsprachigen Fassung vor. Sie ist als virtuelle Bibliothek angelegt mit voneinander unabhängigen granularen Lernobjekten (”‘Mini-Lernwelten”’).
Diese sind nicht nur auf Desktops (PC, Macs), sondern auch auf mobilen Endgeräten (Tablets, Smartphones) aller Hersteller lauffähig.
Die Lernobjekte sind drei Teilbibliotheken zugeordnet. Die Elemente der ersten beiden Teilbibliotheken repräsentieren interaktive Experimente zum ansatzlosen ”‘Ausprobieren”’ von Basiskonzepten der
beschreibenden Statistik sowie von Verteilungsmodellen der schließenden Statistik. Die Objekte der dritten Teilbibliothek haben den Charakter intuitiv bedienbarer Visualisierungsumgebungen zur interaktiven
Exploration von Datensätzen der internationalen amtlichen Statistik.
Die einzelnen Lernobjekte weisen keine Formeln und kaum Text auf und lassen sich in ganz unterschiedliche Lehr- und Lernszenarien einbetten. Sie eignen sich insbesondere für die Verwendung
in einführenden Statistikvorlesungen, als integrale Bestandteile von Online-Lehrangeboten oder als
Ergänzung von Lehrbüchern im Selbststudium.
Mit Verwendung der Web-App werden die in der Methodenausbildung zur Verfügung stehenden
didaktischen Möglichkeiten erweitert. Naheliegend ist die Verknüpfung der Lernobjekte mit der Printfassung von Lehrbüchern über QR-Codes. Lernobjekte zur benutzergesteuerten visuellen Exploration
der Eigenschaften von Verteilungsmodellen können z. B. nach Einscannen der QR-Codes auf einem
Tablet oder Smartphone direkt aufgerufen werden. So werden statische Darstellungen von Verteilungsfunktionen oder Tabellen mit Werten von Verteilungsfunktionen oder Quantilen, die man in jedem
einführenden Lehrbuch der Statistik findet, anschaulich und ”‘erfahrbar”’. Eine ähnliche Aussage gilt
für die Lernobjekte der Web-App zur interaktiven Visualisierung von Datensätzen der amtlichen Statistik. Hier beinhaltet die benutzergesteuerte Exploration die Option der Auswahl alternativer grafischer
Instrumente (Zeitreihen, Balkendiagramme, Boxplots) und der Auswahl von Teildatensätzen.
42 Der indikatorengestützte Demografiemonitor als
statistisch-empirische Basis für das Handlungskonzept Demografie der
69
15.-18. September, Hamburg
Statistische Woche 2015
Staatsregierung und kommunale/regionale Demografiestrategien im
Freistaat Sachsen (Arbeitstitel)
Hans-Dieter (1) Kretschmann, Heike (2) Zettwitz
Statistisches Landesamt des Freistaates Sachsen, Germany, [email protected]
SECTION: Open Section
Vortrag und Poster zum Schwerpunktthema: Statistische Indikatoren für das politische Monitoring:
Der indikatorengestützte Demografiemonitor als statistisch-empirische Basis für das Handlungskonzept Demografie der Staatsregierung und kommunale/regionale Demografiestrategien im Freistaat Sachsen (Arbeitstitel)
Der Freistaat Sachsen ist in Deutschland ein Vorreiter bei der politischen Gestaltung des demografischen Wandels. Auf der Grundlage der prognostizierten Bevölkerungsentwicklung wurde frühzeitig das
Thema für die Zukunftsfähigkeit des Landes, seiner Städte und Gemeinden identifiziert. Zu einer breiten
Wissens- und Sensibilisierungsbasis trugen u. a. Demografiekongresse, eine Expertenkommission und die
Enquetekommission Demografischer Wandel“ des Sächsischen Landtags sowie die ressortübergreifende
”
Zusammenarbeit bei. Die Grundlage für die Gestaltung des demografischen Wandels durch die Staatsregierung bildet ein landeseigenes Handlungskonzept, das in dem Vortrag näher dargestellt werden soll. Mit
der Förderrichtlinie Demografie, die bereits 2007 in Kraft trat, können zielgerichtet regionale Strategien
erarbeitet und Maßnahmen umgesetzt werden.
Vor einer Erstellung von Strategien und Konzepten ist jedoch die spezifische demografische Ausgangssituation der jeweiligen Gemeinde oder des regionalen Netzwerkes zu betrachten. Die sächsischen
Regionen und Gemeinden sind zeitlich und räumlich in äußerst unterschiedlichem Ausmaß von dieser
Entwicklung betroffen. Die Bereitstellung von bevölkerungsrelevanten statistischen Indikatoren und ihre verständliche Visualisierung sind daher im Hinblick auf die demografische Entwicklung von großer
Bedeutung. Der vom Statistischen Landesamt Sachsen bereit gestellte Demografiemonitor erlaubt die
kostenfreie Aufbereitung von bevölkerungsrelevantem statistischen Material für unterschiedliche Nutzergruppen wie z. B. Verantwortliche in der staatlichen und kommunalen Verwaltung, in Unternehmen
und Betrieben, in Forschung und Wissenschaft, aber auch für ehrenamtlich Tätige in Vereinen und
Verbänden. Er erfreut sich wachsender Beliebtheit bei den Nutzern und wird auch intensiv für die Aufbereitung von Demografieberichten als empirische Ausgangsbasis von Demografiestrategien genutzt. Der
Demografiemonitor * ermöglicht die visuelle kleinräumige Bereitstellung von Daten zum Themengebiet
Bevölkerung in Karten, Tabellen und Diagrammen, * befriedigt einen individuellen Informationsbedarf
(z. B. Betrachtung unterschiedlicher Altersgruppen oder Auswahl verschiedener Regionen), * bietet eine
verlässliche Datenbasis, z. B. für vergleichende Betrachtungen.
43 Creative Economy Schweiz - Eine neue Sicht auf die
Kreativwirtschaft
Roman Page1
Statistisches Amt des Kantons Zürich, Switzerland, [email protected]
SECTION: Open Section
Um die dauernden Veränderungen in der Kreativwirtschaft abbilden zu können, sind branchenbasierte
70
Statistische Woche 2015
15.-18. September, Hamburg
Zugänge und die damit verbundene Frage, was zur Kreativwirtschaft gehört und was nicht, zu statisch.
Aus diesem Grund präsentieren die Zürcher Hochschule der Künste und weitere Partner zusammen mit
dem Statistischen Amt des Kantons Zürich erstmals für die Schweiz eine neue Sichtweise: die Creative
”
Economy“. Basierend auf den Empfehlungen von Eurostat, wurden für die statistischen Auswertungen
der Kreativwirtschaft in der Schweiz erstmals Branchen- und Berufsstatistiken gekreuzt. Im Zentrum
dieses Zugangs stand also die Frage: In welchem Verhältnis stehen kreative Berufe zu kreativen Branchen? Normalerweise dominierende Inside-/Outside-Betrachtungen über die Abgrenzung der Kultur- und
Kreativwirtschaft als Branchenkomplex werden hier also bewusst ausgeklammert. Stattdessen wird hiermit die Vermutung formuliert, dass es kaum mehr ausreichen dürfte, die Kreativwirtschaft als isolierten
Branchenkomplex zu betrachten, sondern dass die vorgängig formulierten Trends der Globalisierung, Digitalisierung und Partikularisierung erweiterte Betrachtungsweisen erfordern und neue Fragestellungen
ins Licht rücken.
Datenquelle ist die Schweizerische Arbeitskräfteerhebung (SAKE) und die Strukturerhebung (SE)
des Bundesamtes für Statistik (BFS).
Referenzen:
Zürcher Hochschule der Künste (2010), Dritter Kreativwirtschaftsbericht Zürich
http://creativeeconomies.com/
44 Nutzen der Forschungsdatenzentren der Statistischen Ämter des
Bundes und der Länder für die Wissenschaft – Entwicklung von
Nachfrage und Angebot
Kerstin Schmidtke1 , Heike Habla
Forschungsdatenzentren der Statistischen Ämter der Länder, Germany, [email protected]
SECTION: Open Section
Die Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder (FDZ) leisten seit
ihrer Gründung in den Jahren 2001 und 2002 einen wichtigen Beitrag zur informationellen Infrastruktur
für die Wirtschafts- und Sozialwissenschaften. Als Schnittstelle zwischen Datenproduktion und Wissenschaft ermöglichen die FDZ einen einfachen und transparenten Zugang zu Mikrodaten der amtlichen
Statistik. Über die unterschiedlichen Zugangswege – Scientific Use Files, Kontrollierte Datenfernverarbeitung, Gastwissenschaftsarbeitsplätze – werden sowohl die Prinzipien der Geheimhaltung innerhalb der
gesetzlichen Rahmenbedingungen eingehalten als auch die Anforderungen der Wissenschaft nach Daten mit hohem Analysepotential erfüllt. Auf diese Weise kann nahezu das gesamte Spektrum amtlicher
Daten für wissenschaftliche Forschung bzw. die wissenschaftliche Politikberatung genutzt werden. Seit
Beginn der FDZ wurden weit über 2000 wissenschaftliche Projekte aus den Sozial- und Wirtschaftswissenschaften auf Basis amtlicher Mikrodaten durchgeführt. Die Nachfrage nach den Daten hat sich
dabei permanent weiterentwickelt. Während in der Anfangsphase der FDZ hauptsächlich Querschnittsdaten nachgefragt wurden, sind heute auch zunehmend Längsschnittdaten oder Verknüpfungen mit
anderen Datensätzen gefragt. In dem Beitrag werden die Entwicklungen der Nachfrage vonseiten der
Wissenschaft und die Weiterentwicklungen im Datenangebot in den letzten Jahren dargestellt. Darüber
hinaus wird über aktuelle Projekte in den FDZ berichtet. Dazu gehört (1) die Öffnung der FDZ für die
71
15.-18. September, Hamburg
Statistische Woche 2015
ausländische Wissenschaft seit Februar 2014, (2) die geplante Bereitstellung der Daten des Zensus 2011
sowie (3) die Möglichkeit, zukünftig auch georeferenzierte Daten über die FDZ nutzen zu können.
45 Die Herausbildung von statistischen Indikatoren zur
Wohlstandsmessung und zur Initiative ”GDP and Beyond”Entwicklungen auf nationaler und internationaler Ebene.
Susana Garcia Diez1
Statistisches Bundesamt, Germany, [email protected]
SECTION: Open Section
Initiativen zur umfassenderen Messung von Wohlfahrt, Lebensqualität und sozialem Fortschritt sind
inzwischen in einer großen Zahl von Ländern sowie von mehreren internationalen Organisationen auf
den Weg gebracht worden. Sie reichen von allumfassenden, in einer Zahl ausgedrückten Gesamtindikatoren bis zu breit gefächerten Indikatorensätzen, die unterschiedliche Dimensionen von Wohlstand und
Lebensqualität abbilden. Trotz unterschiedlicher Ausgestaltung und Reichweite sind diese Vorschläge in
einem Punkt einig: Die im BIP erfasste Güterversorgung liefert zwar einen wesentlichen Beitrag zum
materiellen Wohlstand, aber eine Betrachtung der materiellen Lage allein reicht nicht aus, um Wohlfahrt und Lebensqualität umfassend zu erfassen. Anderseits stellt sich bei all diesen Initiativen eine
gemeinsame Herausforderung: das neu kreierte Informationssystem in die politische Diskussion und Arbeit einzubinden. In diesem Beitrag werden ausgewählte Initiativen präsentiert, welche genau dieses
Ziel verfolgen. Dabei wird der Fokus auf den Entstehungsprozess der Initiativen gelegt und folgende
Fragen werden diskutiert: Wie wurde in den jeweiligen ausgewählten Initiativen der Prozess der Herausbildung statistischer Indikatoren konzipiert? Was für eine Rolle wurde bei der Diskussion um Auswahl
und Bedeutung der Themen sowie bei der Festlegung der statistischen Indikatoren der Öffentlichkeit,
den politischen Repräsentanten und den statistischen Ämtern zugeteilt? Neben der in Deutschland seit
ein paar Jahren stattfindenden Diskussionen über eine umfassendere Wohlfahrtsmessung, werden hier
ebenfalls Vorschläge aus dem Ausland präsentiert und diskutiert.
46 Bildungsindikatoren in der öffentlichen Debatte: Zwischen sinnvoller
und unsachgemäßer Nutzung?
Martin Baethge1 , Prof. Dr. Andrä Wolter; Christian Müller; Eckart Hohmann
Soziologisches Forschungsinstituts Göttingen, Germany
SECTION: Statistische Indikatoren für das politische Monitoring
In den letzten Jahren hat die Anzahl der Berichterstattungen über Bildung merklich zugenommen.
Damit einher ging auch die Entwicklung einer Vielzahl von Indikatoren, die das Bildungsangebot und
seine Nutzung sowie die Ergebnisse beschreiben. Die Berichte haben abhängig von Auftraggeber und
Verfasser unterschiedliche Zielsetzungen und Adressaten. Der Bericht Bildung in Deutschland“, be”
auftragt von dem Bundeministerium für Bildung und Forschung und der Kultusministerkonferenz und
72
Statistische Woche 2015
15.-18. September, Hamburg
verfasst von einer unabhängigen Gruppe von Wissenschaftlerinnen und Wissenschaftlern, hat die Zielsetzung, Steuerungswissen zur Verfügung zu stellen und Handlungsfelder aufzuzeigen. Er richtet sich
an alle Akteure des Bildungswesens in Politik, Verwaltung und Praxis genauso wie an die an bildungspolitischen Fragen interessierte Öffentlichkeit. Die Veröffentlichung Wissenschaft weltoffen“, erstellt
”
vom Deutschen Akademischen Auskunftsdienst in Zusammenarbeit mit dem Deutschen Zentrum für
Hochschul- und Wissenschaftsforschung hat sich als die zentrale Informationsquelle für Indikatoren zur
internationalen Mobilität von Studierenden und Akademikern etabliert. Ob und wie die bereitgestellten
Indikatoren in der öffentlichen Debatte genutzt werden, darüber diskutieren zwei langjährige Mitglieder
der Autorengruppe des Berichts Bildung in Deutschland“
”
47 Dynamic Analysis of Multivariate Time Series Using Conditional
Wavelet Graphs
Matthias Eckardt1 , Maria Grith
Humboldt-Universität zu Berlin, Germany, [email protected]
SECTION: Statistics in Finance
We propose a new method for the analysis of multivariate time series that relies on the covariance
function decomposition in the time-frequency domain. The method is well equipped for addressing potential long-range dependence, nonstationarity and seasonality present in real-world time series data.
We introduce a graphical model termed conditional wavelet graph which combines both the advantages
of the graphical models and the partialized wavelet properties to solve the problem locally dynamic
structural dependence of vector-valued time series data. Our model is based on a undirected multigraph
encoding the dependence structure at different scales. Thus, while vertices represent component processes the edge set is transferred into localized subset representing local dependence. Furthermore, we
derive a directed version that characterizes localized Granger causal relation. We call it directed wavelet
graph. While the first is related to local conditional orthogonality the latter expresses dependencies in
terms of local Granger causality. In addition, we derive global dynamic measures of network dependence.
The contribution of our paper consists in defining partial (directed) wavelet coherence and developing
a test that permits to assess whether the conditional spectrum between two series at a given time point
is statistically significantly different from zero or not. We apply the methodology to study the partial
wavelet coherence of realized volatility for six large stock market Indexes. The analysis reveals features
of the systemic risk in a dynamic perspective with potential applicability to investors’ portfolio choice.
48 Estimating ARMA-GARCH Processes in High Dimensions
Florian Ziel1
Europa-Universität Viadrina, Germany, [email protected]
SECTION: Statistics in Finance
In this talk we present an iteratively reweighted lasso algorithm for the estimation of time series models
under conditional heteroscedasticity in a high-dimensional setting. We analyse the asymptotic behaviour
73
15.-18. September, Hamburg
Statistische Woche 2015
of the resulting estimator that turns out to be significantly better than its homoscedastic counterpart.
Moreover, we discuss a special case of this algorithm that is suitable to estimate multivariate ARARCH and ARMA-GARCH models in a very fast fashion. Several model extensions like periodic ARMAGARCH or threshold ARMA-GARCH are discussed as well. We show simulation results that suggest
that we benefit more from considering heteroscedasticity in high-dimensional settings than in standard
situations. Finally, we present applications to electricity market data.
49 Estimation of Expected Utility Portfolios for Large Dimensional
Data
Nestor Parolya1 , Taras Bodnar, Yarema Okhrin
Leibniz Universität Hannover, Germany, [email protected]
SECTION: Statistics in Finance
The mean-variance (MV) portfolio in the high-dimensional case is estimated using the results from
the random matrix theory. We construct a shrinkage-type estimator which is distribution-free and it
is optimal in the sense of maximizing the expected utility, i.e., mean-variance objective function with
probability one. Its asymptotic properties are investigated when the number of assets p depends of
the sample size n such that their ratio p/n approaches a positive constant c as n tends to infinity.
The results are obtained under weak assumptions imposed on the distribution of the asset returns,
namely the existence of the fourth moments is only required. Thereafter we provide the numerical and
empirical studies where the small- and large-sample behavior of the derived estimator are investigated.
The resulting estimator shows significant improvements and it is robust to the deviations from normality.
50 Exact and Asymptotic Tests on a Factor Model in Low and Large
Dimensions with Applications
Taras Bodnar1 , Markus Reiß
Stockholm University, Sweden, [email protected]
SECTION: Statistics in Finance
In the paper, we suggest three tests on the validity of a factor model which can be applied for both small
dimensional and large dimensional data. Both the exact and asymptotic distributions of the resulting
test statistics are derived under classical and high-dimensional asymptotic regimes. It is shown that the
critical values of the proposed tests can be calibrated empirically by generating a sample from the inverse
Wishart distribution with identity parameter matrix. The powers of the suggested tests are investigated
by means of simulations. The results of the simulation study are consistent with the theoretical findings
and provide general recommendations about the application of each of the three tests. Finally, the
theoretical results are applied to two real data sets, which consist of returns on stocks from the DAX
index and on stocks from the S&P 500 index. Our empirical results do not support the hypothesis that
all linear dependencies between the returns can be entirely captured by the factors considered in the
paper.
74
Statistische Woche 2015
15.-18. September, Hamburg
51 Confidence regions for images observed under the Radon transform
Katharina Proksch1 , Hajo Holzmann, Nicolai Bissantz
Universität Siegen, Germany, [email protected]
SECTION: Statistical Inverse Problems
Recovering a function f from its integrals over hyperplanes (or line integrals in the two-dimensional
case), that is, recovering f from the Radon transform Rf of f , is a basic problem with important
applications in medical imaging such as computerized tomography (CT). In the presence of stochastic
noise in the observed function Rf , we shall construct asymptotic uniform confidence regions for the
function f of interest, which allows to draw conclusions regarding global features of the function f .
Specifically, in a white noise model as well as a fixed-design regression model, we prove a BickelRosenblatt-type theorem for the maximal deviation of a kernel-type estimator from its mean, as well as
give uniform estimates for the bias for f in a Sobolev smoothness class. The finite sample properties of
the proposed methods are investigated by means of a in a small simulation study.
52 Adaptive confidence bands for Markov chains and diffusions:
Estimating the invariant measure and the drift
Jakob Söhl, Mathias Trabs1
Humboldt-Universität zu Berlin, Germany, [email protected]
SECTION: Statistical Inverse Problems
As a starting point we prove a functional central limit theorem for estimators of the invariant measure
of a geometrically ergodic Harris-recurrent Markov chain in a multi-scale space. This allows to construct
confidence bands for the invariant density with optimal (up to undersmoothing) diameter in supremum
norm by using wavelet projection estimators. In addition our setting applies to the drift estimation
of diffusions observed discretely with fixed observation distance. We prove a functional central limit
theorem for estimators of the drift function and finally construct adaptive confidence bands for the drift
by using a data-driven estimator. The proofs rely on a non-standard concentration inequality which is
due to the Markovian structure of the observations.
53 Detecting time-dependency and separation of objects in live
cell-imaging
Nicolai Bissantz1
Ruhr-Universität Bochum, Germany, [email protected]
SECTION: Statistical Inverse Problems
Detecting time-dependency and separation of objects in live cell-imaging
75
15.-18. September, Hamburg
Statistische Woche 2015
The question whether structural changes in time-resolved images are of statistical significance, and
therefore of scientific interest, or merely emerge from random noise is of great relevance in many
practical applications such as live cell fluorescence microscopy, where intracellular diffusion processes are
investigated.
In this paper we study the statistical recovery of such time-resolved images from fluorescence microscopy of living cells, based on which we introduce a method that allows us to both monitor and
visualize statistically significant structural changes between individual frames over time. The method
can be adopted for use in other imaging systems and is applicable to both images and image changes.
It yields a criterion to assess time-resolved small scale structural changes e.g. in the nanometer range.
Moreover, we extend the analysis of the live-cell imaging data to the classification of objects as being
separate or not.
The proposed method is based on data reconstruction with a regularization technique as well as
new theoretical results on uniform confidence bands for the function of interest in a two-dimensional
heteroscedastic nonparametric convolution-type inverse regression model. In particular, a new uniform
limit theorem for the case of Poisson-distributed observations is presented and a strong approximation
result for a two-dimensional array of non-identically distributed Poisson-residuals by an array of independent and identically distributed Gaussian random variables is derived. Additionally, a statistical test
for the detection of modes is used for an additional analysis of objects on being separate. Moreover, a
data-driven selection method for the regularization parameter based on statistical multiscale methods is
discussed. The method can be used for a automatic data-driven data analysis.
The theoretical results are demonstrated in a simulation study and used to analyse data of fluorescently labelled intracellular transport compartments in living cells.
54 Density estimation from grouped data with skew densities and
heterogeneous group sizes
Johanna Kappus1
Universität Rostock, Germany, [email protected]
SECTION: Statistical Inverse Problems
We aim at estimating the density fX of X. However, this quantity is only accessible through the
aggregated data
Yj =
mj
X
Xj,k ,
j = 1, · · · , n,
k=1
where the (Xj,k ) are independent copies of X.
We focus on the situation where the density fX of X is non-symmetric and the group size mj may
vary with j.
A new estimation procedure is introduced, rates of convergence under usual smoothness conditions are
derived and their optimality is discussed. Moreover, we investigate the adaptive choice of the smoothing
parameter.
In addition, we discuss the connection to the nonparametric estimation of the characteristics of a
Lévy process when heterogeneous observations are available.
76
Statistische Woche 2015
15.-18. September, Hamburg
55 Wildlife sampling methods and models
David Borchers1
University of St Andrews, United Kingdom, [email protected]
SECTION: Young-Academics Mini-Symposium
All wildlife surveys involve incomplete spatial sampling of populations that are inhomogeneously distributed in space. And all but the simplest are characterized by the fact that the probability of including
population members in the sample varies spatially in an unknown way that is beyond the control of the
surveyor. This is what makes wildlife survey design and analysis challenging.
The design and analysis methods can usefully be classified according to the ways that they estimate
inclusion probabilities, and much of wildlife survey development has focused on refining how this is done.
Until very recently, much less effort has been devoted to modelling the invariably inhomogeneous and
often clustered distribution of population members in space, but this is now changing.
In this talk I will give an overview of the main wildlife survey methods, including removal methods,
distance sampling methods, capture-recapture methods and occupancy estimation methods. I will concentrate on methods for closed populations (those that do not change over the course of they survey),
illustrating their common features as well as their distinguishing features, and will try to show how and
where statistical methods used in the analysis of wildlife surveys relate to statistical methods used in
other fields.
56 Why Spatial models are useful in ecology (Understanding the
mechanics of dots)
Charlotte Moragh Jones-Todd1
St Andrews University, United Kingdom, [email protected]
SECTION: Young-Academics Mini-Symposium
Understanding and inferring the underlying spatial mechanics of patterns formed by the locations of
objects in space is not a recent concept, however the computational cost of fitting complex point process models has historically limited their application to comparably simple models. Through the use of
Integrated Nested Laplace Approximation (INLA) coupled with the stochastic partial differential equation (SPDE) approach complex spatio-temporal point process models can be fitted, specifically Log
Gaussian-Cox Process‘, a common model used to infer the latent processes inherent in aggregated point
patterns.
Point process methodology has applications in many fields; ecology, pathology, criminology and pedology etc. Inferring the inherent underlying spatial/spatio-temporal structures in an attempt to explain
naturally occurring processes is highly relevant in many contexts as this facilitates the understanding of
the many “real world” phenomena that vary both in space and time. Through the application of such
point process methodology to both ecological and criminal data the spatial/spatio-temporal dependence
is estimated and the latent “driver” is inferred.
77
15.-18. September, Hamburg
Statistische Woche 2015
57 Recent developments for modelling butterfly abundance
Emily Beth Dennis1
University of Kent, United Kingdom, [email protected]
SECTION: Young-Academics Mini-Symposium
Butterfly populations are undergoing various changes which require investigation. They respond sensitively and rapidly to changes in habitat and climate, hence their population status is a valuable indicator
for changes in biodiversity. Butterflies are the most comprehensively monitored invertebrate taxa. Count
data from the UK Butterfly Monitoring Scheme is used to derive abundance indices, which form one of
the UK Government’s 18 biodiversity indicators.
Devising suitable statistical methods for modelling butterfly abundance presents challenges. Butterflies have multi-stage life cycles and hence count data fluctuate within each year in response to their
emergence as adults. Many species are also multivoltine, with up to two or three broods of adults
emerging each year. Furthermore, fitting models to data for many species from extensive, long-term
monitoring schemes can be challenging and computer intensive.
We present recent models that describe seasonal variation in count data of the adult stage for particular years, and demonstrate their application to a sample of species. Generalised additive models
are currently used for annual reporting, but a recently proposed generalised abundance index is very
efficient in comparison, due to the use of concentrated likelihood techniques. New parametric descriptions of seasonal variation also produce estimates of parameters relating to emergence and survival.
Novel dynamic models explicitly describe dependence between broods and years to produce indices and
estimated productivities separately for each brood.
By accommodating features such as weather and covariate dependence, the new methods can reveal
new insights relevant for both monitoring and conservation, whilst producing more efficient abundance
indices. We discuss the relative benefits of the different modelling approaches, as well as possible future
developments. This talk describes work undertaken jointly with members of the University of Kent,
Butterfly Conservation and the Centre for Ecology and Hydrology.
58 Monitoring Time Dependent Processes
Yarema Okhrin, Wolfgang Schmid1
Europa-Universität, Germany, [email protected]
SECTION: Change Points
In many applications an analyst is interested to detect a change in the course of a time dependent
process. Change points provide an important information about the underlying process as they show
that something important has happened. Of course it is desirable to detect such changes as soon as
possible after its occurrence. Such questions arise in many fields of applications like, e.g., engineering,
public health, finance, environmental sciences (see, e.g., Montgomery (2009), Lawson and Kleinman
(2005), Frisén (2008)).
78
Statistische Woche 2015
15.-18. September, Hamburg
In this talk control charts for monitoring time series are considered. In that case it turns out to be
very difficult to give an explicit formula for the performance criteria of a chart like, e.g., the average
run length or the average delay. In most cases these quantities are estimated within simulation studies.
In order to give a mathematical characterization of these schemes stochastic inequalities can be used.
These results provide an important insight into the behavior of these schemes since statements about
the probability of a false signal can be obtained (e.g., Schmid and Schöne (1997), Schöne at al. (1999),
Okhrin and Schmid (2003, 2015)). Here several stochastic inequalities for EWMA charts are presented
for various types of time series. The main focus lies on control charts for long-memory processes.
59 Inference and Change-Point Asymptotics for Covariance Matrices of
High-Dimensional Time Series
Ansgar Steland1 , Rainer von Sachs
RWTH Aachen, Germany, [email protected]
SECTION: Change Points
We study the problem of monitoring high-dimensional vector time series where the dimension may
grow faster than the sample size. That problem arises in various fields and applications ranging from
financial portfolio optimization to the analysis of high-dimensional covariance matrices to infer dependencies between variables and sparse projections onto lower-dimensional spaces aiming at reducing the
dimensionality. A further interesting application is shrinkage of the sample covariance matrix.
When analyzing high-dimensional vector time series, estimation of the associated covariance matrix
is a challenging and involved problem. This particularly applies when it comes to statistical inference
and change-point analysis.
Our approach is based on new large sample approximations related to the sample covariance matrix,
in terms of strong approximations by a Brownian motions. The results hold true for a time series model
under assumptions which allow for weak dependence as well as a strong dependence.
Those general results allow us to establish a change-point detection procedure for a high-dimensional
vector time series. Here we consider a change-in-variance change-point problem and study the asymptotics of the proposed detector to test for the presence of a change. Within the investigated model
framework, it turns out that it is possible to monitor high-dimensional time series under surprisingly
weak assumptions.
60 Sparse partial robust M-estimation for regression and classification
Peter Filzmoser1 , Sven Serneels, Irene Hoffmann, Christophe Croux
Vienna University of Technology, Austria, [email protected]
SECTION: Computational Statistics and Data Analysis
Partial Robust M-regression (PRM) (Serneels et al., 2005) is a Partial Least Squares (PLS) alike robust
regression method which reduces dimensionality of the data by projection to latent structures. PRM is
modified along the lines of Chun and Keles (2010) in order to yield sparse coefficient estimates. The
79
15.-18. September, Hamburg
Statistische Woche 2015
resulting method is called Sparse PRM (SPRM), and it inherits the advantages of PLS: It is applicable
to high-dimensional data with multicollinearities, and the results can be visualized in biplots. Further,
SPRM performs intrinsic variable selection and obtains a sparse version of the latent variables, which can
increase model precision when uninformative variables are present, and this facilitates the interpretation
of the results. Research has shown that PLS regression methods can also be adapted for discriminant
analysis (Barker & Rayens, 2003). Thus, we introduce a classification method for binary response based
on SPRM as robust alternative to PLS discriminant analysis. PLS related algorithms for the estimation
of latent variable models in classification problems are discussed and different approaches for outlier
detection are presented. The method is evaluated based on simulation studies, where the effect of
outliers in the predictor space, wrong class labels in the response, uninformative variables and unequal
group size is investigated. Thereunto, the number of components and the sparsity parameter are tuned
via k-fold cross validation. In the simulation study and for real data examples from mass spectrometry
the performance of the methods is illustrated and compared to non-robust counterparts.
References:
Barker, M. & Rayens, W. (2003). Partial least squares for discrimination. Journal of Chemometrics,
17, 166-173. Chun, H. & Keles, S. (2010). Sparse partial least squares regression for simultaneous
dimension reduction and variable selection. Journal of the Royal Statistical Society, Series B, 72, 325. Serneels, S. & Croux, C. & Filzmoser, P. & Van Espen, P.J. (2005). Partial robust M-regression.
Chemometrics and Intelligent Laboratory Systems, 79, 55-64.
61 Random Forests for Functional Covariates
Annette Möller1 , Gerhard Tutz, Jan Gertheiss
University of Göttingen, Germany, [email protected]
SECTION: Computational Statistics and Data Analysis
Analysis of functional data with methods tailored to the specific characteristics of the curves is becoming
more and more important in many statistical applications. However, applied researchers often rely on
more intuitive procedures to deal with functional data. A popular approach is to discretize a signal x(t),
t ∈ J ⊂ R, by partitioning its domain into several intervals and employ the mean values computed
across each interval as covariates in a regression or classification model. Based on this idea we propose
a special form of random forests to analyze functional data. The covariates used for the single trees
are the mean values over intervals partitioning the functional curves, where the intervals are generated
at random using exponentially distributed waiting times. The rate parameter λ of the exponential
distribution determines whether the functions’ domain tends to be split into just a few (small λ) or
many (large λ) intervals. Further, we derive a functional variable importance, accounting for the fact
that the set of used covariates (the randomly generated intervals) differs for each tree in the forest.
The tree specific “interval importance” measure is assigned to each point t contained in the respective
interval and averaged over all trees. The obtained smooth importance plot yields information about the
relevance of the different parts of the predictor curves.
We investigate the predictive performance of the functional random forests in comparison to classical
parametric and nonparametric functional models, and to a non-functional random forest using the single
measurements x(tj ) at measurement points tj as predictors. Our case study considers data from Raman
spectroscopy on boar meat samples, where the objective is to predict the concentration of the hormones
80
Statistische Woche 2015
15.-18. September, Hamburg
skatole and androstenone in the meat samples, and to classify the respective samples according to joint
properties in skatole and androstenone concentration.
62 Control charts based on robust two-sample tests
Sermad Abbas1 , Roland Fried
Technische Universität Dortmund, Germany, [email protected]
SECTION: Computational Statistics and Data Analysis
The detection of sudden jumps in time series is an important task in biosignal analysis. For example,
in online monitoring in intensive care, jumps indicate clinically relevant events. In the plasmon assisted
microscopy of nanosize objects for retrospective virus detection, a jump points at a virus. Common
control charts with fixed control limits are sometimes inappropriate because they depend on reference
values or historical data which might not exist. Moreover, the process can be nonstationary. Additionally,
in case of outliers, robust methods are needed, because relevant changes could be masked.
We use a moving-window approach to detect jumps. It is divided into two subwindows. Their location
difference is estimated and standardized using a suitable scale estimator to construct test statistics.
Robust estimators are applied to deal with possible outliers. We compare tests based on the sample
median, the one-sample Hodges-Lehmann estimator and the two-sample Hodges-Lehmann estimator
with some non-robust competitors regarding their average run length (ARL). The ARL is the expected
number of observations between two successive alarms. It should be large if there is no jump in the time
series and small if there is one.
We compare the methods in simulation studies under the standard normal as well as the heavy-tailed
t5 - and t2 - and the skewed χ23 -distributions. A randomisation procedure to calculate the distribution of
the test statistics under the null hypothesis can lead to an approximately distribution-free ARL.
63 Politische Rahmenbedingungen und Zielsetzungen der
Regierungsstrategie Gut leben in Deutschland – was uns wichtig ist“.
”
1
Oliver Schmolke
, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Was ist den Menschen in Deutschland wirklich wichtig? Welche Ansprüche stellen sie an ein gutes“
”
Leben? Unter diesen Leitfragen hat sich die Bundesregierung in ihrer Kabinettsklausur Anfang 2014 auf
die Regierungsstrategie Gut leben in Deutschland – was uns wichtig ist“ verständigt. Die Ergebnisse
”
von Bürgerdialogen sowie des begleitenden Online-Dialogs werden nach wissenschaftlichen Kriterien
ausgewertet und in messbare Indikatoren übersetzt. Damit will die Bundesregierung eine belastbare
Grundlage für ein regelmäßiges Berichtswesen über Lebensqualität schaffen und die Diskussion über ein
umfassendes Wohlstandsmodell als Zielgröße der Wirtschafts- und Gesellschaftspolitik in Deutschland
voranbringen.
81
15.-18. September, Hamburg
Statistische Woche 2015
64 Optimal Shrinkage Estimator for High Dimensional Mean Vector
Ostap Okhrin1 , Taras Bodnar, Nestor Parolya
TU Dresden, Germany, [email protected]
SECTION: Statistics in Finance
In this paper we derive the optimal linear shrinkage estimator for the large dimensional mean vector using
the random matrix theory. We concentrate us on the case when both the dimension p and the sample
size n tend to infinity such that their ratio tends to a constant c ∈ (0, +∞). Using weak assumptions
on the underlying distribution we find the asymptotic equivalents of the optimal shrinkage intensities
and estimate them consistently. The obtained non-parametric estimator is of simple structure and is
proven to minimize asymptotically the quadratic loss with probability 1 in the case c ∈ (0, 1). In the
case c ∈ (1, +∞) we improve the derived estimator by setting the feasible estimator for the precision
covariance matrix. At the end, an exhaustive simulation study is provided, where the proposed estimator
is compared with known benchmarks from the literature.
65 Pricing under Estimation Risk
Richard Neuberg1 , Lauren Hannah
Columbia University, United States of America, [email protected]
SECTION: Statistics in Finance
Financial product prices often depend on unknown parameters. Their estimation introduces the risk
that a better informed counterparty may strategically pick mispriced products. We discuss how overall
estimation risk can be minimized by selecting a probability model of appropriate complexity. We show
that product-specific estimation risk can be measured only if the probability model predictions have
little bias. We illustrate how a premium for product-specific estimation risk may be determined when
one counterparty is better informed than the other, but a market collapse is to be avoided. We use a
simple example from pricing regime credit scoring, where a loan applicant and a single bank engage
in a zero-sum game. We find that in large samples kernelized logistic regression is at least as accurate
as commonly used default probability estimators such as logistic regression, and that it has little bias.
This allows estimating loan-specific estimation risk, and asymptotic results make its computation fast.
These methods are empirically examined on a panel data set from a German credit bureau, where we
also study dynamic dependencies such as prior rating migrations and defaults.
66 Testing for Neglected Strong Dependence in Explosive Models
Robinson Kruse, Christoph Wegener1
Center for Risk and Insurance, Germany, [email protected]
SECTION: Statistics in Finance
82
Statistische Woche 2015
15.-18. September, Hamburg
The test by Philips, Wu, and Yu (2011) is a recent and widely applied procedure to test against
explosive behavior in time series econometrics. There is a fast-growing empirical literature, which applies
this method to detect bubbles in real estate, commodity and stock prices. Furthermore, there are some
improvements of this test like, for example, a generalized version to deal with multiple bubbles by
Philips, Shi, and Yu (2012). However, there is a gap in the literature concerning strong dependent
innovation processes in this framework. We consider the test by Philips, Wu, and Yu (2011) under
strong dependencies and find severe size distortions if the residuals of the autoregressive model exhibit
long-range dependencies. The unit root hypothesis is rejected far too often even for a mild form of strong
dependence. We use the limit theory for mildly explosive models by Magdalinos (2012) to uncouple the
consistent estimation of the autoregression coefficient and the degree of persistence. Thus, we are able to
test the unit root hypothesis against an explosive alternative in the presence of long-range dependencies.
Moreover, we investigate the size properties of the test by Demetrescu, Kuzin, and Hassler (2008) for
short-range dependencies in this setting. We are particularly interested in small sample properties of
all methods in this context, because explosive behavior seems to be a temporarily phenomenon. We
show by simulation that the Maximum Likelihood Estimator is downward biased in small samples. Thus,
we examine simple correction methods to deal with this issue. Furthermore, we also consider several
methods to correct the widely known bias of the estimator for the autoregression coefficient in the unit
root region. Finally, we construct a recursive right-tailed unit root test allowing for strong dependencies
in the residuals and we apply this procedure to yield spreads of European government bonds.
References
Demetrescu, Matei, Vladimir Kuzin, and Uwe Hassler, 2008. Long Memory Testing in the Time
Domain. Econometric Theory 24, 176-215.
Magdalinos, Tassos, 2012. Mildly Explosive Autoregression under Weak and Strong Dependence.
Journal of Econometrics 169, 179-187.
Phillips, Peter CB, Shu-Ping Shi, and Jun Yu, 2012. Testing for Multiple Bubbles. Cowles Foundation
Discussion Paper No. 1843.
Phillips, Peter CB, Yangru Wu, and Jun Yu, 2011. Eplosive Behavior in the 1990s NASDAQ: When
did Exuberance escalate Asset Values? International Economic Review 52, 201-226.
67 Estimating and Using continuous time stochastic volatility driven by
partially nested Lévy Archimedean copula Models with VIX Data for
Option Valuation
Mohsen Rezapour1
Shahid Bahonar University of Kerman, Iran, Islamic Republic of, [email protected]
SECTION: Statistics in Finance
It is now widely accepted that the volatility of financial assets changes stochastically over time, with
fairly calm phases being followed by more turbulent periods of uncertain length. Although many modelbased and model-free volatility measures have been proposed in the academic literature, the Chicago
Board Options Exchange (CBOE) volatility index, widely known by its ticker symbol VIX, has effectively
become the standard measure of volatility risk for investors in the US stock market.
83
15.-18. September, Hamburg
Statistische Woche 2015
Continuous-time models play a crucial role in modern finance. They provide the basis of option
pricing, asset allocation, risk return tradeoff and term structure theory. However, the resulting models
can be cumbersome to estimate with time-series data, due to the need to filter the unobserved stochastic
volatility and jump intensity. Importantly, in most continuous time series models, no (semi-closed)
solutions are available for option valuation, and especially with non-affine models, option prices can be
computed only through Monte Carlo simulation or by using approximations.
Alternative approaches that are used in literature are parameter estimation and valuating index
options using information on the VIX index. These methods improve the option pricing performance of
continuous time series models and also reduce the computational burden. An aim of this research is
considering the continuous time processes driven by partially nested Lévy Archimedean copula and the
parameter estimation of some continuous times random process via VIX index.
68 Measuring whale behavioural responses to anthropogenic
disturbance using data from animal-borne tags
Stacy Lynn DeRuiter1
Calvin College, United States of America, [email protected]
SECTION: Young-Academics Mini-Symposium
Animal-borne tags have revolutionized the study of animal behaviour, especially for species like whales and dolphins, whose underwater activities were essentially unobservable previously. High-resolution
multi-sensor tags used to study animal behaviour typically include accelerometers to measure body posture and sudden movements or changes in speed, magnetometers to measure direction of travel, and
pressure sensors to measure dive depth in aquatic or marine animals. A subset of tags include sensors for
speed, turning rate (gyroscopes), or sound, increasing the array of inferences that can be drawn about
the context and energetic cost of specific behaviours. Statistical analysis of data from animal-borne
tags presents particular challenges, and is an active research area. Tag data generally include multiple
dependent time-series, sampled at varying rates and with varying precision. High-resolution tags typically
record data multiple times per second for hours or days, but are deployed on only a few individuals,
resulting in many repeated observations on a few animals. Often, an analysis goal is to provide a quantitative summary of animal behaviour states, and to assess how these may change in the context of
anthropogenic disturbance. Using data on behaviour changes by tagged whales in response to naval
sonar sounds, I will discuss application of dimensionality reduction techniques, change-point detection,
and state-switching models to animal-borne tag data.
69 A statistical introduction to animal movement modelling
Théo Michelot1 , Roland Langrock, Paul Blackwell
INSA de Rouen, France, [email protected]
SECTION: Young-Academics Mini-Symposium
The analysis of animal movement data can reveal various drivers and consequences of animal behaviour,
84
Statistische Woche 2015
15.-18. September, Hamburg
e.g. how animals respond to environmental conditions, or how population dynamics may be affected
by individual movement decisions. In particular, this contributes to the effort of understanding the
future consequences of climate change and habitat loss on species abundance and distribution. Due to
substantial technological improvements accomplished in recent years, it is nowadays feasible to gather
fine-scale tracking data for a large number of individuals from some species of interest, which has created
various exciting research opportunities for ecologists. Associated with this development comes a huge
demand for sophisticated statistical modelling tools which capture the complex patterns typically found
in animal movement paths, yet can deal with the increasing amount of data. This talk will give an
overview of what currently are some of the most popular statistical models for animal movement data.
Both discrete-time (hidden Markov and related models) and continuous-time (stochastic differential
equations) stochastic processes will be discussed and showcased using real animal movement data.
70 Monte Carlo estimation of stage durations from cohort data
Jonas Knape1 , Perry de Valpine
Swedish University of Agricultural Sciences, Sweden, [email protected]
SECTION: Young-Academics Mini-Symposium
ı̈¿Insects and other arthropods develop through a series of distinct life stages, typically from eggs to
larvae through some number of instars into adults. Estimating the amount of time individuals spend
within each of these stages as well as the rate of mortality is important for biological understanding and
in applications such as pest management. Many arthropod species are small and following individual
organisms through their life cycle can be difficult or virtually impossible. Instead, data are collected by
following a cohort of individuals and sampling the number or proportion of individuals within each of the
stages at multiple time points. We discuss computational methods, utilizing adaptive MCMC algorithms
and simple approximations of the likelihoods, for fitting models to cohort data.
71 Capture-recapture models in ecology: A trio of multistate
developments
Rachel Sara McCrea1
University of Kent, United Kingdom, [email protected]
SECTION: Young-Academics Mini-Symposium
The content of this presentation is collaborative work with Ruth King, Hannah Worthington and
Ming Zhou. Capture-recapture data arise from capture attempts of individually identifiable animals.
Basic statistical models proposed in the 1960s allowed the estimation of demographic parameters, such
as survival and population size from such data, whilst accounting for imperfect detection. Multistate
model extensions, in which transition probabilities of moving between sites and states are estimated, have
increased in popularity in recent times and within this talk I will present material on three current areas of
research. The trinomial method was proposed as a way of modelling individual time-varying covariates
in a capture-recapture study. Here I examine the application of a multistate version of the trinomial
85
15.-18. September, Hamburg
Statistische Woche 2015
method to a large population of guppies. Models which condition on first capture do not describe the
arrival process of animals into a study area. Stopover models parametrise the unknown arrival time of
individuals and allow other parameters to depend on the unknown time since arrival. Here I describe
an extension to this model, the multistate integrated stopover model, which can incorporate multiple
seasons of data, and allow individuals to move between states within a season. The new model will be
fitted to data on great crested newts. Removal experiments involve successively sampling a closed area
for particular animal species and each time removing those individuals found. Simple removal models
dating back to the 1950s result in geometric declines of expected numbers of individuals in the area as
time progresses and the removals take place. However, when removals are conducted on cryptic species,
such as reptiles and amphibians, the animals removed on one sampling occasion may be replaced by
others which might have previously remained undetected below ground or in other unsampled refugia.
In these cases more complex models are needed to account for the apparent appearance of new animals
in the study area. Equally, apparent ’depletions’ can be confounded by animals moving underground in
response to seasonal changes in weather conditions (e.g. animals going into aestivation or hibernation). I
will describe new removal models which incorporate a hidden state which accounts for individuals being
available or unavailable for detection. The method will be applied to data on common lizards.
72 MULTIPLE CUSP ESTIMATION IN REGRESSION MODELS
Maik Döring1
Universität Hohenheim, Germany, [email protected]
SECTION: Change Points
We consider the problem of estimating the locations of cusps in a regression model. That means,
we focus on regression functions, which are continuous, but not differentiable at a known number of
locations. We investigate the consistency with increasing sample size of the least squares estimates of
the locations of the cusps. It turns out that the rates of convergence depend on the order of smoothness
at the locations of the cusps and that our estimator converges to a maximizer of a Gaussian process.
For a small degree of smoothness the least squares estimator for the location of the cusps shows a nonregular asymptotic. That means, we have not the asymptotic normality property, but a representation
of the limit distribution as maximizer of a fractional Brownian motion with drift.
73 Surveillance of non-stationary processes
Taras Lazariv1 , Wolfgang Schmid
European University Viadrina, Germany, [email protected]
SECTION: Change Points
In SPC literature it is often assumed that the underlying process is stationary. However, this assumption
is very restrictive and does not hold in many applications. Therefore, the control charts for non-stationary
processes should be introduced. We use the state-space models to model the non-stationary processes. In
the talk new control charts for the mean of the state-space models are presented, which are derived using
86
Statistische Woche 2015
15.-18. September, Hamburg
the likelihood ratio, the sequential probability ratio test and the Shiryaev-Roberts approach (Lazariv et
al. (2013)). For prediction the underlying process the Kalman filter is used (Brockwell and Davis, 1991).
Within a simulation study all proposed schemes are compared with each other. The behaviour of the
charts is analysed for a stationary (autoregressive process of order 2) and for a non-stationary (random
walk with autoregressive noise of order 2) process. As the measures of performance the average run
length (ARL), the average delay (AD) and the probability of successful detection (PSD) are used.
74 Smoothing Categorical Regressors
Jeffrey S. Racine1
McMaster University, Canada, [email protected]
SECTION: Smoothing Categorial Regressors
In this talk I will present an overview of recent developments for the smoothing of categorical predictors.
75 ANOVA for Factors With Ordered Levels
Jan Gertheiss1 , Elizabeth Sweeney
Georg-August-Universität Göttingen, Germany, [email protected]
SECTION: Smoothing Categorial Regressors
In its simplest case, ANOVA can be seen as a generalization of the t-test for comparing the means
of a continuous variable in more than two groups defined by the levels of a discrete covariate, a socalled factor. Testing is then typically done by using the standard F-test. Here, we consider the special
but frequent case of factor levels that are ordered. We propose an alternative test using mixed models
methodology with an implicit smoothing penalty. The new test often outperforms the standard F-test
when factor levels are ordered. We illustrate the proposed testing procedure in simulation studies and
use it for testing differentially expressed genes in dose-response studies and with ordinal phenotypes.
76 Global, cluster, and individual effects by smoothing categorical
predictors
Harry Haupt, Joachim Schnurbus1
Universität Passau, Germany, [email protected]
SECTION: Smoothing Categorial Regressors
We propose a nonparametric approach for estimation and inference to account for sources of heterogeneity and nonlinearity in growth regressions. Simultaneous smoothing of continuous and discrete
regressors allows to estimate (and test for) time-varying global vs. cluster-level convergence effects. The
87
15.-18. September, Hamburg
Statistische Woche 2015
resulting flexible modeling framework allows both linear or nonlinear convergence effects and hence to
analyze potential differences of within-cluster individual convergence paths.
77 Finanzpolitische Kennziffern als Instrumente der Politikgestaltung
und -vermittlung
Bernd Hanke1
Bundesministerium der Finanzen, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Finanzpolitische Kennziffern als Instrumente der Politikgestaltung und -vermittlung
Maastricht”
Kriterien“ und Schuldenbremse“ prägen die deutsche Finanzpolitik. Sie bilden als Ziele oder Verfahren
”
die Grundlagen haushaltspolitischer Entscheidungen, europäische Haushaltsüberwachung sowie nationale Haushaltsplanung und -umsetzung werden über sie gesteuert. Dabei ist wichtig, dass – bei aller
Komplexität der konkreten Berechnung – mit diesen Kennziffern auch eine unmittelbar verständliche
Botschaft transportiert werden kann. Ihre konsequente Umsetzung gilt als Ausweis erfolgreicher Finanzpolitik. Obwohl den Bedürfnissen des Politikbetriebes scheinbar widersprechend, erfordern sie eine
strikte Regelbindung. In Deutschland offenkundig in der Bevölkerung und in der Fachöffentlichkeit populär, könnte diese mittel- bis langfristige Orientierung angesichts aktueller Probleme aber eher Grund
für eine international zunehmende Entfremdung sein. Deutschland als stärkster Volkswirtschaft Europas
wird zunehmend von internationalen Organisationen (OECD, IWF, KOM) nicht nur eine finanzpolitische, sondern auch eine kurzfristige makroökonomische Stabilisierungsrolle zugedacht. Die aus deutscher Sicht vorteilhaften Konzepte hat man versucht, national für föderale Fragen nutzbar zu machen.
Entsprechend den europäischen Verfahren im Rahmen des Stabilitäts- und Wachstumspaktes wurde
als Frühwarnsystem ein Berichtswesen auf Basis haushaltspolitischer Indikatoren für Bund und Länder
entwickelt, mit dessen Hilfe drohende Haushaltsnotlagen identifiziert werden sollen. Im Rahmen der europäischen Haushaltsüberwachung sind die Regeln immer weiter verfeinert worden. Zu den bekannten
Kennziffern des staatlichen Finanzierungssaldos und des Schuldenstandes sind weitere Differenzierungen
erfolgt (struktureller Saldo, sog. 1/20stel-Regel für die Rückführung der Schuldenquoten, Ausgabenregel), die eindeutig scheinbare Genauigkeit vor Vermittelbarkeit stellen.
78 Administrative Verwendung statistischer Indikatoren-Entwicklungen
und Auswirkungen am Beispiel der EU-Stabilitätspaktdaten
Albert Braakmann1
Statistisches Bundesamt, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Spätestens im Vorfeld der Entscheidung über die Teilnahme an der Gemeinschaftswährung Euro rückten
statistische Daten in den Mittelpunkt des öffentlichen Interesses. Mit der anschließenden Einführung des
EU-Stabilitätspaktes und des Verfahrens bei einem übermäßigen Defizit ab 1999 werden Defizit und
Schuldenstand des Staates zu den zentralen Indikatoren für das Monitoring bzw. die Überwachung der
88
Statistische Woche 2015
15.-18. September, Hamburg
nationalen Haushalte. Je nach Entwicklung kann die EU-Kommission bei den betroffenen Mitgliedstaaten z.B. Auflagen machen, Verwarnungen aussprechen oder gar Geldbußen in Milliardenhöhe verhängen.
Auf der anderen Seite bieten Regelungslücken oder Interpretationsspielräume für die Mitgliedstaaten
die Möglichkeit, mit Hilfe innovativer finanzpolitischer Maßnahmen, die Grenzwerte der StabilitätspaktIndikatoren einzuhalten. Die EU-Kommission hat die Aufgabe die Haushaltslage der Mitgliedstaaten zu
überwachen und zwar auf der Grundlage von vergleichbaren Daten. Verwendet werden die Angaben zum
Defizit und Schuldenstand des Staates entsprechend den Konzepten des Europäischen Systems Volkswirtschaftlicher Gesamtrechnungen (ESVG). In diesem Beitrag wird untersucht wie sich die qualitativen
Anforderungen von europäischer Seite an die Stabilitätspaktindikatoren entwickeln und verändern sowie
welche Auswirkungen eine solche administrative Verwendung für die Statistik hat.
79 How should we measure residential property prices to inform policy
makers?
Jens Mehrhoff1
Deutsche Bundesbank, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
The various motivations for the analysis of house prices, from the monetary policy assessment of
price signals to the use for financial stability purposes, or as a soundness indicator, call for alternative
measures to be applied. However, these indicators can give different results, which could undermine their
credibility for many users. Yet, there should be no unique indicator. The high dimensionality of a complex
and diffuse phenomenon such as ”the residential property market” cannot adequately be reproduced by
a composite indicator. Quite the contrary, the joint distribution of price, financial and real economic
indicators seems to be at the centre of the current discussion. There is no simple answer to a complicated
question; it might, thus, be better to look at a dashboard of indicators rather than to dissolve existing
conflicts between base variables. Last but not least, statistics has a consulting function for policy makers
- this makes it even more important to produce unbiased, easily interpretable and manageable measures.
In order to determine whether threats to the economy or financial stability emanate from the housing
market, the Bundesbank based its analyses on a broad set of indicators. A dashboard comprising the three
dimensions price, financial and real economic indicators as well as spatial differences will be discussed.
The year 2010 saw a trend reversal in the German housing market, which was reflected in a sharp rise
in prices. This situation needs to be addressed in light of the ongoing low-interest-rate environment.
However, studies of averages throughout Germany have limited value, as moderate rates of increase for
the whole of Germany could obscure a heterogeneous regional distribution. With regard to the future
stability of the residential property market as a whole, it is therefore of key importance to investigate
the spatial transmission channels of price impulses in greater depth.
80 Synthesizing Cash for Clunkers: Stabilizing the Car Market, Hurting
the Environment
Stefan Klößner1 , Gregor Pfeifer
89
15.-18. September, Hamburg
Statistische Woche 2015
Universität des Saarlandes, Germany, [email protected]
SECTION: Statistics in Finance
We examine the impact of European car scrappage programs on new vehicle registrations and respective
CO2 emissions. To construct proper counterfactuals, we develop MSCM-T, the multivariate synthetic
control method using time series of economic predictors. Applying MSCM-T to a rich data set covering
two outcomes of interest, ten economic predictors, and 23 countries, we first analyze Germany which
implemented the largest program. We find that the German subsidy had an immensely positive effect
of 1.3 million program-induced new car registrations. Disentangling this effect reveals that almost one
million purchases were not pulled forward from future periods, worth more than three times the program’s
e5 billion budget. However, stabilizing the car market came at the cost of 2.4 million tons of additional
CO2 emissions. For other European countries with comparable car retirement schemes, we show further
positive results regarding vehicle registrations. Finally, we demonstrate that all non-scrapping countries
could have considerably backed their vehicle markets by adopting scrappage subsidies.
81 Wavelet decomposition and applied portfolio management
Theo Berger1
University of Bremen, Germany, [email protected]
SECTION: Statistics in Finance
We decompose financial return series into its time and frequency domain to separate short-term noise
from long-term trends.
First, we investigate dependence between US stocks at different time scales before and after the
outbreak of financial crisis.
Second, we set up a novel analysis and introduce the application of decomposed return series to a
portfolio management setup and model portfolios that minimize the volatility of each particular time
scale.
As a result, portfolio compositions that minimize short-run volatility of the first scales represent a
promising choice, since they slightly outperform portfolio compositions that minimize the variance of
the unfiltered return series.
82 The Bundesbank’s Research Data and Service Center (RDSC):
Gateway to Treasures of Micro-Data on the German Financial System
Rafael Beier1 , Stefan Bender
Deutsche Bundesbank, Germany, [email protected]
SECTION: Statistics in Finance
The Deutsche Bundesbank collects monetary, financial and external sector statistical data, comprehensive sets of indicators and seasonally adjusted business statistics.
The Bundesbank’s micro data cover the fields of * Banks * Securities * Enterprises * Household
finance
90
Statistische Woche 2015
15.-18. September, Hamburg
The Bundesbank provides access to its microdata for research purposes. Due to legal requirements and
in order to meet data protection requirements, individual data can be made available only under certain
restrictions. Therefore, the Bundesbank has established its Research Data and Service Centre (RDSC)
in order to provide researchers access to the Bundesbank’s microdata in the context of independent
scientific research projects.
The RDSC assumes several functions and provides the following services to external researchers: *
The RDSC is responsible for the methodological improvement, physical provision and comprehensive
documentation of high-quality microdata sets. * The RDSC offers consultancy and support services to
prospective and existing data users inside and outside of the Bundesbank. The RDSC advises researchers on data selection, data access, data contents and analytical options. * The RDSC satisfies data
protection requirements because it reviews incoming requests for access to microdata according to legal
requirements.
The Centre grants access to most of the data during research visits at the Bundesbank in Frankfurt
(Germany), where visiting researchers have the opportunity to view and analyze these data during
research projects in a secure environment. RDSC staff members ensure that the microdata provided
are documented in detail and archived. In addition, the RDSC conducts supplementary methodological
and descriptive research based on the data sets created, and it collaborates with researchers within and
outside the Bundesbank. Access to data provided by the RDSC is free of charge.
83 The price for Basel III: theoretical aspects
Maryna Yaroshenko1 , Taras Zabolotskyy
Lviv Institute of Banking University of Banking National Bank of Ukraine, Ukraine, [email protected]
SECTION: Statistics in Finance
The paper investigates the problem of optimal portfolio selection based on Value-at-Risk minimization
with the preselected level of expected return by using the principle of unconditional (concerning expected
return) Value-at-Risk minimization. We show that the optimal portfolio with the minimum level of Valueat-Risk and preselected level of expected return is efficient by Markowitz. We derive the confidence level
for the Value-at-Risk under which the expected return of optimal portfolio with the minimum level
of Value-at-Risk is equal to the preselected level of expected return. Using historical monthly data of
seven assets from Dow Jones Index it is analyzed the relationship between expected return level and
confidence level and it is shown that the sample estimator of this confidence level is very accurate even
for a small sample size (n=60). Finally, we prove that the problem of Value-at-Risk minimization with the
preselected level of expected return in practice can be replaced by more universal one of unconditional
(concerning expected return) Value-at-Risk minimization.
84 Mixture models with symmetric errors
Cristina Butucea1 , Rodrigue Ngueyep Tzoumpe, Pierre Vandekerkhove
University Paris-Est Marne-la-Vallee, France, [email protected]
SECTION: Statistical Inverse Problems
91
15.-18. September, Hamburg
Statistische Woche 2015
A semiparametric mixture of two populations with the same probability density and different locations
can be identified and estimated under the assumption that the common probability density is symmetric.
We use indentifiability results in Bordes et al. (2006) and propose a new estimation algorithm based on
techniques from the theory of inverse problems. We establish asymptotic normality for the estimators
of the location and mixing parameters as well as minimax convergence rates for the estimator of the
probability density.
We consider next a semiparametric mixture of regression models and study its identifiability. We
propose an estimation procedure of the mixing proportion and of the location functions locally at a
fixed point. Our estimation procedure is based on the symmetry of the errors’ distribution and does not
require finite moments of the errors. We establish under mild conditions minimax rates of convergence of
our estimators. We study the finite sample performance on synthetic data and on the positron emission
tomography imaging data in a cancer study in Bowen et al. (2012).
85 Nonparametric GARCH models
Alexander Meister1
Universität Rostock, Germany, [email protected]
SECTION: Statistical Inverse Problems
We consider extensions of the famous GARCH(1, 1) model where the recursive equation for the volatilities is not specified by a parametric link but by a smooth autoregression function. Our goal is to estimate
this function under nonparametric constraints when the volatilities are observed with multiplicative innovation errors. We construct an estimation procedure whose risk attains the usual convergence rates
for bivariate nonparametric regression estimation. Furthermore, those rates are shown to be optimal in
the minimax sense.
This talk is based on a joint work with Jens-Peter Kreiß (TU Braunschweig).
86 Nonparametric estimation of coefficients in stochastic differential
equations by penalized maximum likelihood
Fabian Dunker1 , Thorsten Hohage
Ruhr-Universität Bochum, Germany, [email protected]
SECTION: Statistical Inverse Problems
In this talk we present nonparametric estimators for drift and volatility in stochastic differential equation if the data are described by independent, identically distributed random variables. The problem is
formulated as a nonlinear ill-posed operator equation with a deterministic forward operator described by
the Fokker-Planck equation. We derive convergence rates of the risk for penalized maximum likelihood
estimators with convex penalty terms and for Newton-type methods. The assumptions of our general
convergence results are verified for estimation of the drift coefficient. The advantages of log-likelihood
compared to quadratic data fidelity terms are demonstrated in Monte-Carlo simulations.
92
Statistische Woche 2015
15.-18. September, Hamburg
87 Challenges of virtual testing in statistical quality control of railway
ballast
Vera Hofer1
Universität Graz, Austria, [email protected]
SECTION: Statistics in Science and Technology
ı̈¿Railway ballast is a natural product and as such it is subject to variation in petrographic composition
and particle geometry. This causes variation in technical properties of the material such as resistance to
attrition. As existing test methods are arduous and expensive, test intervals are typically fairly wide. Thus,
short-term and mid-term fluctuations of ballast quality may not be detected. This results in increased
costs for maintenance work such as tamping. Shorter test intervals would yield a better ballast quality
and reduce ballast life-cycle costs. This can be achieved with acceptable effort only if new methods are
taken into consideration.
Against this background, a new statistical monitoring process for railway ballast is proposed. It
R
combines traditional test methods with an innovative measurement device, the Petroscope 4DÂ.
Here, the geometrical parameters can be measured directly in a manner superior to that of traditional
tests. Since the rock type cannot be observed directly, the petrographic composition of the material is
predicted using reflectance spectra. Based on the geometric and spectrographic features of the material
its mechanical properties are statistically estimated. This procedure is referred to as virtual testing.
Due to the various statistical questions involved and the complex data structure virtual testing
provides many challenges for statistical modelling. In particular, different types of methods ranging
from supervised and semi-supervised learning to functional and compositional data analysis are used.
Compositional data analysis is required since properties of the samples are aggregated due to the fact that
automatically measured predictors of mechanical properties are available per particle, but the response
variable (i.e. mechanical properties) is only available per sample.
Replacing manual testing by virtual testing assumes that distributions on which the prediction model
is based remain unchanged. However, there is no guarantee that, for example, new rock types that were
not included in the training phase emerge. Samples consisting of such new classes will be classified
incorrectly, which yields a wrong prediction of the mechanical properties. Thus, to guarantee a high
prediction performance quality, statistical monitoring of samples from daily production requires a novelty
detection step. In addition, drift detection analysis is carried out to early detect small but systematic
changes of the predictors.
88 Efficient Performance Evaluation of the Cumulative Sum Chart and
the Sequential Probability Ratio Test
Aleksey Polunchenko1
State University of New York at Binghamton, United States of America, [email protected]
SECTION: Statistics in Science and Technology
Wald’s likelihood ratio identity is one of the fundamental tools in all of sequential analysis. The
93
15.-18. September, Hamburg
Statistische Woche 2015
powerful change-of-measure technique essentially enabled the proof of nearly every classical result in
the field: strong optimality of Wald’s SPRT, exact minimax optimality of Page’s CUSUM chart, and
exact multi-cyclic optimality of the Shiryaev–Roberts procedure—to name a few. More recently, however, Polunchenko et al. (2014a) and Polunchenko et al. (2014b) put the technique to a different,
more applicative use: to improve the accuracy and efficiency of the numerical method they developed
to compute the performance of the Shiryaev–Roberts procedure. We extend the ideas of Polunchenko
et al. (2014a) and Polunchenko et al. (2014b) and employ Wald’s likelihood ratio identity to establish
an explicit connection between certain in-control characteristics of the CUSUM Run Length and their
out-of-control counterparts. The connection is obtained in the form of paired integral (renewal) equations and the derivation exploits the fact that CUSUM is equivalent to repetitive application of the SPRT.
The Run Length characteristics of interest include the whole distribution and its entire moment series,
starting from the zero-state ARL. One particular practical benefit of the established connection is that it
enables concurrent evaluation of the in- and out-of-control characteristics of the CUSUM Run Length.
This is a considerable reduction of the computational burden. Moreover, due to the well-known relation
between the CUSUM chart and the SPRT, the ASN and OC functions of the latter can be computed
simultaneously as well. We illustrate the main ideas using CUSUM’s zero-state in- and out-of-control
ARLs as an example. Extensions to double-sided charts are discussed as well.
89 On control charts and the detection of increases in the traffic
intensity
Manuel Cabral Morais1 , António Pacheco
Instituto Superior Técnico, Portugal, [email protected]
SECTION: Statistics in Science and Technology
The traffic intensity is a crucial parameter of a queueing system since it is a measure of the average
occupancy of a server. Expectedly, an increase in traffic intensity must be detected quickly so that a
corrective action can be taken, such as allocating more servers or increasing the service rate.
In this talk, we: (i) review existing procedures used to monitor the traffic intensity of G/M/1 and
M/G/1 queues; (ii) focus on control charts, whose control statistics are integer-valued and/or modeled
by discrete time Markov chains, to detect increases in traffic intensity; (iii) investigate the stochastic
monotonicity properties of the associated probability transition matrices; (iv) explore the implications
of these properties to provide insights on the performance of such control charts.
90 Statistische Indikatoren aus den Gesundheitsökonomischen
Gesamtrechnungen für die Gesundheitsberichterstattung der Länder
Wolf-Dietmar Speich1
Statistisches Landesamt des Freistaates Sachsen, Germany, [email protected]
SECTION: Regional Statistics
Die Gesundheitsökonomischen Gesamtrechnungen sind Rechenwerke, die sich mit ökonomischen
94
Statistische Woche 2015
15.-18. September, Hamburg
Fragestellungen der Gesundheitswirtschaft beschäftigen. Sie halten Informationen zu Art und Umfang der erbrachten Leistungen, den dafür eingesetzten Ressourcen sowie zu Entwicklungstendenzen in der Gesundheitswirtschaft bereit. Die Arbeitsgruppe Gesundheitsökonomische Gesamtrechnungen der Länder befasst sich mit der Entwicklung der Gesundheitsökonomischen Gesamtrechnungen
auf Länderebene. Handlungsfelder sind die Gesundheitsausgabenrechnung, die Gesundheitspersonalrechnung sowie der Wertschöpfungsansatz. Ziel der Arbeiten dieser Arbeitsgruppe ist die Schaffung
eines länderübergreifenden Ansatzes je Handlungsfeld. Seit ihrer Gründung 2010 erfolgten grundlegende und umfassende methodische Arbeiten, um die Bereitstellung von vergleichbaren Ergebnissen
auf Länderebene sicherstellen zu können. Zugleich wurden notwendige Instrumentarien zur effizienten Ergebnisermittlung entwickelt. Gegenwärtig erfolgt die Erstellung einer Gesundheitsausgabenrechnung nach Ausgabenträgern sowie einer Gesundheitspersonalrechnung nach Einrichtungsarten für die
in dieser Arbeitsgruppe mitarbeitenden Länder. Ergebnisse liegen zurzeit für die Berichtsjahre 2008 bis
2012 vor. Auf der Grundlage mehrerer statistischer Indikatoren kann so erstmals ein Gesamtbild zu den
Beschäftigungsmöglichkeiten in den Einrichtungsarten sowie zu den Gesundheitsausgaben nach Ausgabenträgern gegeben werden. Dabei sind sowohl die Vergleichbarkeit der Länderergebnisse untereinander
als auch die Passfähigkeit zur Bundesrechnung gegeben. Die Nachhaltigkeit beider Rechnungen ist durch
entsprechende Methodendokumentationen gesichert. Zugleich bedeuten die jetzt vorliegenden statistischen Indikatoren einen deutlichen Informationsgewinn für die Gesundheitsberichterstattung der Länder.
Zurzeit liefert die Gesundheitspersonalrechnung drei Indikatoren für den Themenbereich Beschäftigte
”
im Gesundheitswesen“ und die Gesundheitsausgabenrechnung 13 Indikatoren für den Themenbereich
Ausgaben und Finanzierung“, jeweils einschließlich der entsprechenden Metadaten. Der Schwerpunkt
”
der weiteren methodischen Arbeiten liegt auf der Weiterentwicklung des Wertschöpfungsansatzes zu
einem länderübergreifenden Ansatz. Die Bereitstellung von Indikatoren ist für 2016 geplant. Damit wäre
dann auch auf dem dritten Gebiet der Gesundheitsökonomik dem regionalen Datenbedarf von Politik,
Verwaltung und Wissenschaft Rechnung getragen.
91 Mit Statistiken lügt man nicht. Der Beitrag der
Umweltökonomischen Gesamtrechnungen der Länder zum politischen
Monitoring.
Dr. Olivia Martone
IT.NRW als Statistisches Landesamt, Germany, [email protected]
SECTION: Regional Statistics
Mit Statistiken lügt man nicht. Der Beitrag der Umweltökonomischen Gesamtrechnungen der Länder
zum politischen Monitoring.
Dr. Olivia Martone
Mit einer Statistik kann man alles beweisen, nur nicht die Wahrheit. Gegenüber diesem und ähnlichen
Vorurteilen steht das Bundesstatistikgesetz (BstatG), das die amtliche Statistik als eine der wichtigs”
ten Informationsquelle, deren Ergebnisse die notwendige informationelle Infrastruktur für jede moderne
leistungsfähige Gesellschaft vermitteln“, bezeichnet. Im § 1 BStatG wird dargelegt, dass durch die Ergebnisse der Statistik gesellschaftliche, wirtschaftliche und ökologische Zusammenhänge für Bund, Länder,
Gesellschaft, Wissenschaft und Forschung aufgeschlüsselt werden.
95
15.-18. September, Hamburg
Statistische Woche 2015
Der Arbeitskreis Umweltökonomische Gesamtrechnungen der Länder“ (AK UGRdL) dokumentiert
”
auf Länderebene seit mehr als 15 Jahren mit Daten und Indikatoren die Wechselwirkungen zwischen privater Wirtschaft, Umwelt und privaten Haushalten. Diese Informationen erscheinen in mehreren Umweltund Nachhaltigkeitsberichten der Länder und bieten der Politik eine wichtige Grundlage für umweltrelevante Diskussionen.
Seit 2005 liefert der AK UGRdL viele Indikatoren für den Erfahrungsbericht zur Nachhaltigen Entwicklung der Umweltministerkonferenz. Seit 2010 trägt der Arbeitskreis auch mit der Trendanalyse zu
einer neutralen und objektiven Informationspolitik bei. Die Trendanalyse wird im Geschäftsbereich Statistik von IT.NRW durchgeführt und bietet statistisch fundierte Aussagen über den zeitlichen Verlauf
von Umwelt- und Nachhaltigkeitsindikatoren.
92 microm Indikatoren für das kleinräumige politische Monitoring
Guido Oemmelen1
microm Micromarketing-Systeme und Consult GmbH, Germany, [email protected]
SECTION: Regional Statistics
Bereits seit 1993 werden bei der microm raumbezogene Indikatoren für Zielgruppenanalysen und verortungen für das Direktmarketing entwickelt und jährlich gepflegt. Bei den Daten handelt es sich
zumeist um haushaltsbezogene Angaben, qualifiziert bspw. nach Kaufkraft bzw. Einkommensklassen,
sozioökonomischem Status, Milieuzugehörigkeit, Ausländer- bzw. Migrantenanteil, Familienstruktur, Arbeitslosenquote, etc. Die Liste der verfügbaren Daten bietet umfangreiche thematische Möglichkeiten
für das kleinräumige politische Monitoring. Unter strikter Einhaltung datenschutzrechtlicher Bestimmungen beginnt die Hierarchie der Beobachtungsebenen auf der Adress- bzw. Hausebene und führt über
sogenannte Straßenabschnitte, Raster (1km und kleiner, INSPIRE konform), Baublöcke und PostleitzahlAcht Gebiete in die amtlichen Geoebenen, wie die Gemeinde- bzw. Kreisebene sowie die adressbezogenen Postleitzahlgebiete. Aufgrund ihrer feinräumigen Granulierung besteht die Möglichkeit die Daten
in jede gewünschte auch eigene Raumgliederung zu aggregieren bspw. um eigene bzw. eigens erhobene Daten anzuspielen. Viele der in Deutschland durchgeführten bevölkerungsrepräsentativen Befragungen, wie die Allgemeine Bevölkerungsumfrage der Sozialwissenschaften (ALLBUS), teilweise mit
Längsschnittcharakter, wie das Sozioökonomische Panel (SOEP) oder das Nationale Bildungspanel
(NEPS) werden jährlich mit microm Indikatoren angereichert. Indikatoren für ein Monitoring müssen
in der ihnen zugrunde liegenden Methodik sowohl zeitlich als auch räumlich stabil sein, jedoch bereits
die amtlichen Gemeindegrenzen erfüllen diese Voraussetzung nicht. Im Rahmen aktueller Projekte zur
Erforschung des Verlaufs residenzieller Segregation werden daher speziell Referenzen zwischen Teil- und
Bezugsräumen entwickelt, bei denen die Grenzen der Bezugsräume eingefroren“ werden. Der Vortrag
”
bietet neben einem Überblick über verfügbare Indikatoren auch eine Darstellung von Ergebnissen ausgewählter Projekte, die relevant sind für das politische Monitoring.
93 Bestimmungsfaktoren der Zuwanderung
Lothar Eichhorn1 , Tanja Eichhorn
Landesamt für Statistik Niedersachsen, Germany, [email protected]
96
Statistische Woche 2015
15.-18. September, Hamburg
SECTION: Regional Statistics
Die Autoren untersuchen verschiedene erklärende Faktoren für die Intensität der aktuellen Arbeitsmigration aus den 27 EU-Staaten außerhalb Deutschlands in das Land Niedersachsen. Dabei werden internationale und nationale Datenquellen kombiniert, denn eine einseitige Betrachtungsweise ausschließlich aus
Sicht der Zielstaaten der Arbeitsmigration hat nur beschränkten Aussagewert. Unter anderem werden
Indizes der Zuwanderungsintensität sowie der Nationalitätenrepräsentanz gebildet. Die anhand der Daten Niedersachsens entwickelte Methode kann auch für andere Länder und Regionen angewandt werden.
94 Sparse Bayesian Modelling for Categorical Predictors
Daniela Pauger1 , Helga Wagner, Gertraud Malsiner-Walli
Johannes Kepler Universität Linz, Austria, [email protected]
SECTION: Smoothing Categorial Regressors
The usual strategy to include a categorical covariate in a regression type model is to define one of
the levels as the baseline and to introduce dummy variables for all other levels. As this can result in a
high-dimensional vector of regression effects, methods which allow sparser representation of the effect
of categorical covariates are required. In contrast to metric predictors, sparsity for a categorical predictor
cannot only be achieved by restricting regression coefficients to zero but also when two or more of its
levels have the same effect. Routine application of variable selection methods is therefore inappropriate
as these allow only selection of single regression coefficients.
We achieve a sparse representation of the effect of a nominal predictor by defining informative prior
distributions. The specification of a spike and slab prior on level effect differences allows classification
of these differences as (practically) zero or non-zero. Thus, we can decide whether (1) a categorical
predictor has no effect at all, (2) some (all) level effects are non-zero and/or (3) some (all) categories
can be fused as they have essentially the same effect on the response.
Additionally we consider a modification of the standard spike-and slab prior where the spike at zero
is combined with a slab distribution which is a location mixture distribution. Model-based clustering of
the effects during MCMC allows to detect levels which have essentially the same effect size. We propose
to first choose the number of mixture components reasonable large in order to capture differences in the
effects, while the specification of a sparse prior on the mixture weights encourages empty components.
We demonstrate the performance of the developed methods in simulation studies and for real data.
95 We Belong Together - Pairwise Cross-Smoothing of Categorical
Predictors
Phillip Heiler1 , Jana Mareckova
Universität Konstanz, Germany, [email protected]
SECTION: Smoothing Categorial Regressors
Models that capture most of the observational heterogeneity through interactions between categorical
97
15.-18. September, Hamburg
Statistische Woche 2015
predictors can become extremely large. This poses a threat to stability and feasibility of the estimates and
reduces predictive accuracy. Coming from a flexible estimation approach that uses orthogonal predictors
in (0-1) coding as reference, we develop a cross-smoothing method for regression models to overcome
these drawbacks. The idea is to penalize the loss function by additive overlapping L2 differences between
the estimation and the reference target. In general, each pairwise combination can have a parameter
which determines the amount of smoothing. This effectively stabilizes the estimates by reducing the
complexity of the model. The problem is equivalent to regularizing a potentially large parameter space
by a finite-dimensional hyperrectangle whose boundaries are defined by the set of smoothing parameters.
The main goal is to find reasonable restrictions and estimators for them. We derive the MSE-optimal
smoothing parameters and provide several ad-hoc, plug-in and data-driven estimators. We show that
cross-smoothing nests well-known smoothing approaches from the nonparametric and the computational
statistics literature. Based on this result, we demonstrate how other conventional approaches such as
smoothing kernels can only be optimal under restrictive assumptions on the first two moments of
the outcome variable. Cross-smoothing requires little computational effort and yields an interpretable
closed-form solution. Furthermore, it can be easily combined with continuous data and other methods
for regularization. We demonstrate the qualitative behavior of the different estimation methods for the
smoothing parameters and their respective predictive performance in small sample simulation.
96 Mixed copulae for Munich rent survey - Rent versus configuration
of flats in Munich
Christian Schellhase1 , Joachim Schnurbus, Göran Kauermann
Universität Bielefeld, Germany, [email protected]
SECTION: Smoothing Categorial Regressors
Recently it is discussed, whether the rent increase for German major cities is merely a matter of rising
demand that is exploited by flat owners. We provide a copula-based analysis of several current releases
of the Munich rent survey that allows to disentangle the rent increase over time into two effects. First,
the rent increase caused by an improvement of the flats and second, the increase in terms of equivalent
flats simply getting more expensive. Two approaches for estimating copulas for the mixed - continuous
and discrete - covariate setup are proposed. A novel approach using penalized B-splines based on a
D-vine structure and a mixed kernel-approach, allowing for simultaneous smoothing of continuous and
discrete covariates.
97 Structural Vector Autoregressions with Smooth Transition in
Variances
Aleksei Netsunajev1 , Helmut Luetkepohl
Free Unniversity of Berlin, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
In structural vector autoregressive analysis identifying the shocks of interest via heteroskedasticity has
98
Statistische Woche 2015
15.-18. September, Hamburg
become a standard tool. Unfortunately, the approaches currently used for modeling heteroskedasticity
all have drawbacks. For instance, assuming known dates for variance changes is often unrealistic while
more flexible models based on GARCH or Markov switching residuals are difficult to handle from a
statistical and computational point of view. Therefore we propose a model based on a smooth change in
variance that is flexible as well as relatively easy to estimate. The model is applied to a five-dimensional
system of U.S. variables to explore the interaction between monetary policy and the stock market. It is
found that previously used conventional identification schemes in this context are rejected by the data
if heteroskedasticity is allowed for. Shocks identified via heteroskedasticity have a different economic
interpretation than the shocks identified using conventional methods.
98 Comparing Predictive Accuracy under Long Memory
Christian Leschinski, Robinson Kruse, Philipp Sibbertsen, Michael Will1
Institut für Statistik Leibniz Universität Hannover, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
This paper deals with the popular Diebold-Mariano (DM) test for equal predictive accuracy in situations where the forecast error loss differential series shows long memory dynamics. We first demonstrate
that forecast errors can be fractionally integrated in many situations. Both, predictive regressions with
fractionally integrated variables and survey forecasts arising from cross-sectional averaging may lead to
fractionally integrated forecast errors. We give conditions under which the long memory carries over to
the loss differential series and further characterize its dependence structure.
The contribution of our article is three-fold: (1) We demonstrate that the DM test suffers from severe
size distortions in finite samples, if long memory is present in the loss differential series. In addition to
that, we show that the asymptotic level of the test approaches unity. (2) We construct modified DM test
statistics based on two estimators for the long-run variance of long memory series - the MAC estimator
and the extended fixed-bandwidth (fixed-b) approach. These modified DM statistics are consistent in
the long memory case and they remain valid in the absence of long memory. (3) We conduct monte carlo simulations that include a novel comparison of the MAC estimator and the extended fixed-b
approach. These simulations allow several practical recommendations regarding bandwidth and kernel
choices which is especially relevant to handle the size-power tradeoff.
As an empirical application we compare survey forecasts (obtained from the Survey of Professional
Forecasters) for 3-month US treasury bills with a random walk benchmark forecast. Our empirical results
indicate that the loss differential series exhibits significant long memory. Short memory approaches reject
the null hypothesis of equal predictive accuracy in favor of a better performing random walk forecast.
On the contrary, the proposed long memory robust DM statistics do not lead to a rejection, irrespective
of user-specific choices.
99 Politikbegleitendes statistisches Monitoring auf inter- und
supranationaler Ebene Titel der
99
15.-18. September, Hamburg
Statistische Woche 2015
Susanne Schnorr-Bäcker1
Statistiches Bundesamt, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Die Messung von nachhaltiger Entwicklung und Fortschritt ist ein wichtiges Anliegen der amtlichen
Statistik in unserer Zeit. Derzeit von großer Bedeutung sind die Arbeiten der Vereinten Nationen zur
Neuausrichtung der nachhaltigen Entwicklungsziele, d.h. der Sustainable Development Goals (SDG)
für post 2015. Diese Strategie knüpft zwar an die Millennium Development Goals an, dennoch gibt
es grundlegende Neuerungen. Für die amtliche Statistik sind vor allem folgende Aspekte von besonderer Bedeutung: - Ausweitung des Geltungsbereichs auf sämtliche Mitgliedstaaten der Vereinten Nationen - Politik begleitendes statistisches Monitoring - unter Ausschöpfung auch neuer Datenquellen überwiegend durch die amtliche Statistik - Monitoring der Entwicklungen und Fortschritte nicht nur auf
nationaler, sondern - soweit notwendig - auch auf subnationaler Ebene. Auch wenn die amtliche Statistik
in Deutschland bereits seit Langem bei Politik begleitenden Indikatorensystemen auf nationaler, interund supranationaler Ebene beratend mitwirkt wie auch entsprechende Berichte koordiniert und teilweise
veröffentlicht, stellt die Neuausrichtung der SDG eine Herausforderung für Politik und amtliche Statistik
dar. Aufgrund der außerordentlichen Bedeutung der SDG auch in der nationalen und europäischen Politik werden Anpassungsmaßnahmen und Modifikationen im statistischen Monitoring auch für nationale
und europäische Strategien notwendig sein. In diesem Beitrag soll aufgezeigt werden, welche Indikatorensysteme - bereits seit Längerem etablierte wie auch neue - auf inter- und supranationaler Ebene sowie
für Deutschland davon betroffen sind.
100 Semi-parametric estimation in a single index model with
endogenous variables
Melanie Birke1 , Sebastien van Bellegem, Ingrid van Keilegom
Universität Bayreuth, Germany, [email protected]
SECTION: Statistical Inverse Problems
In this talk we consider the problem of estimating a semiparametric single-index regression model,
when it is assumed that (some of) the explanatory variables are endogenous. Endogeneity is a central
issue when modeling statistical data coming from human or medical sciences, and occurs when some
of the independent variables in a regression model are correlated with the error term. It can arise when
relevant explanatory variables are omitted from the model, as a result of sample selection errors or when
unobserved subject selection occurs in experimental studies.
When endogeneity is present, ordinary regression techniques produce biased and inconsistent estimators. A possible way out is to make use of so-called ‘instrumental variables’. These are variables
that are not part of the original model, they are correlated with the endogenous explanatory variables
conditional on the other covariates, and they cannot be correlated with the error term in the model
(i.e. the instruments do not suffer from the same problem as the original explanatory variables). In the
talk we will introduce estimators for the link function as well as for the regression parameters based on
techniques typical for inverse problems. It can be shown by empirical process methods that the adequa-
100
Statistische Woche 2015
15.-18. September, Hamburg
tely standardized vector of regression parameters is asymptotically normal. The finite sample behavior
is demonstrated in a simulation study.
101 Functional linear instrumental regression
Jan JOHANNES1
Crest-Ensai and Université catholique de Louvain, France, [email protected]
SECTION: Statistical Inverse Problems
The estimation of a slope function β is considered in functional linear instrumental regression, where
in the presence of a functional instrument W the dependence of a scalarR response Y on the variation
1
of an endogenous explanatory random function X is modelled by Y = 0 β(t)X(t)dt + σU , σ > 0,
for some error term U . Taking into account that the functional regressor X and the error term U are
correlated in many economical applications, the random function W and the error term U are assumed
to be uncorrelated. Given an iid. n-sample of (Y, X, W ) a lower bound of the maximal mean integrated
squared error is derived for any estimator of β over certain ellipsoids of slope functions. This bound
is essentially determined by the mapping properties of the cross-covariance operator associated to the
functional regressor X and the best linear predictor Wo of X given the instrument W . Assuming first
that Wo is known in advance a least squares estimator of β is introduced based on a dimension reduction
technique and additional thresholding. It is shown that this estimator can attain the lower bound up to a
constant under mild additional moment conditions. The best linear predictor of X given the instrument
W is generally, however, not known. Therefore, in a second step Wo is replaced by an estimator and
sufficient conditions are provided to ensure the minimax-optimality of the resulting two stage least
squares estimator. The results are illustrated by considering Sobolev ellipsoids and finitely or infinitely
smoothing cross-covariance operators.
102 The Triangular Model with Random Coefficients
Stefan Hoderlein, Hajo Holzmann1 , Alexander Meister
Philipps-Universität Marburg, Germany, [email protected]
SECTION: Statistical Inverse Problems
To capture endogeneity, a very common structure employed is the triangular model, where an outcome
is determined by an endogenous regressor which in turn is caused by an instrument in a first stage.
We study the triangular model with random coefficients and exogenous regressors in both equations.
We establish a profound non-identification result: the joint distribution of the random coefficients is
not identified. We show moreover that this result extends to the joint distribution of the coefficients
in the outcome equation, and even to the means of the individual random coefficients on all variables
in this equation, except the one on the endogenous regressor. Identification continues to fail even if
the instruments enter the first stage in a monotonic fashion. Based on this insight, we suggest an
additional restriction that allows to point identify the distribution of random coefficients in the outcome
equation. We extend this framework to cover the case where the regressors and instruments have
101
15.-18. September, Hamburg
Statistische Woche 2015
limited support, and analyze semi- and nonparametric sample counterpart estimators as well as linear
instrumental variables estimators for the means in finite and large samples.
103 ”Zensus2011-Straßenatlas”; untergemeindliche Ergebnisse aus der
Volks-, Gebäude- und Wohnungszählung für Rheinland-Pfalz
Gerd Reh1
Statistisches Landesamt Rheinland-Pfalz, Germany, [email protected]
SECTION: Regional Statistics
Aufgabe der Statistischen Ämter der Länder ist es, Statistiken so aufzubereiten, dass sie unter anderem von den Landes- und den Kommunalverwaltungen für eine am Sozialstaatsprinzip ausgerichtete
Politik genutzt werden können. Der Zensus 2011 bietet eine fachlich breite, zum Teil tief regionalisierbare Datenbasis, die sich für planerische Anliegen und politische Entscheidungen insbesondere auch auf
der kommunalen Ebene auswerten lässt. Im Dezember 2014 hat das Statistische Landesamt RheinlandPfalz sein bereits bestehendes breites Informationsangebot um eine in erster Linie für die oben genannten
Fachkreise bestimmte Veröffentlichung kleinräumiger Ergebnisse ergänzt. Hierzu wurde eine Sammlung
von Karten und Tabellen angefertigt, die landesweit Aufschluss über die am 9. Mai 2011 festgestellten
innergemeindlichen Bevölkerungs-, Haushalts- und Immobilienstrukturen gibt: der Zensus 2011 – Stra”
ßenatlas“. Die Anwendung ermöglicht flächendeckend für sämtliche rund 2.300 rheinland-pfälzischen
Gemeinden die Visualisierung von insgesamt zwölf Strukturindikatoren (u. a. Anteil leer stehender Wohnungen, Anteil von Haushalten mit minderjährigen Kindern und Ausländeranteil) auf der Straßenebene.
Ergänzende Tabellen enthalten sowohl die Indikatorenwerte als auch die diesen zugrunde liegenden
Basiszahlen auf der Straßen-, Gemeinde- und zusätzlich auf der Kreis- sowie Landesebene. Nach bisherigen Rückmeldungen wird das Angebot von Kommunen ohne abgeschottete Statistikstelle positiv
aufgenommen. Eine breitere Streuung wird seitens der Städtestatistik kritisch gesehen. Im Vortrag wird
dieses zusätzliche Datenangebot aus dem Zensus 2011 als Option für die flächendeckende Aufbereitung
räumlich tief gegliederter Ergebnisse vorgestellt.
104 Small Area Estimation - Stand der Anwendung und Perspektiven
in der amtlichen Statistik
Josef Schäfer1
Information und Technik Nordrhein-Westfalen, Germany, [email protected]
SECTION: Regional Statistics
Information und Technik Nordrhein-Westfalen - Geschäftsbereich Statistik Bei einem hohen Bedarf
an kleinräumig gegliederten Auswertungen werden deren Möglichkeiten häufig durch eine zu geringe
Primärdatenbasis eingeschränkt. Viele Ergebnisse auch größerer Erhebungen, wie z. B. dem Mikrozensus, weisen bereits auf der Ebene kleinerer Kreise und kreisfreien Städte hohe Standardfehler auf.
Belastbare Ergebnisse für kreisangehörige Gemeinden oder gar darunter sind in diesem Fall unter den
gegebenen Bedingungen der amtlichen Statistik in Deutschland mit klassischen Schätzverfahren nicht zu
102
Statistische Woche 2015
15.-18. September, Hamburg
erhalten. Kleinräumige Auswertungen stellen eines der zentralen Anwendungsgebiete für Verfahren der
Small Area Estimation dar. Diese bieten grundsätzlich die Chance, weitere Information, z. B. Ergebnisse
übergeordneter oder strukturell vergleichbarer Regionaleinheiten oder weitere Datenquellen zur jeweiligen
Auswahleinheit, z. B. aus Registern, zu nutzen, um die Genauigkeit zu verbessern. Neben den Chancen
einer Verbesserung der Schätzgenauigkeit sind auch Risiken in Betracht zu ziehen. Aus übergeordneten
Regionaleinheiten, z. B. dem Kreis, heruntergebrochene“ Ergebnisse können die Schätzergebnisse für
”
eine Gemeinde verzerren. Auswahl und Bewertung der inzwischen zahlreichen Modelle sind nicht einfach
und erfordern Sachverstand und Erfahrung. Wo steht die amtliche Statistik in Deutschland in Bezug
auf die Anwendung von Small Area Verfahren? Welche Anwendungen wären möglich und diese sinnvoll?
Wie verändern sich die Rahmenbedingungen für Regionalauswertungen und wären Small Area Verfahren
eine Lösung?
105 Regionalstatistische Anforderungen an die Weiterentwicklung des
Systems der Haushaltsstatistiken (WSH)
Wolfgang Hüning1
Information und Technik Nordrhein-Westfalen, Germany, [email protected]
SECTION: Regional Statistics
In Form eines Werkstattberichts wird über das seit 2012 laufende Projekt Weiterentwicklung des
”
Systems der Haushaltsstatistiken (WSH)“ der Statistischen Ämter des Bundes und der Länder referiert.
Ein Schwerpunkt liegt dabei auf den regionalstatistischen Anforderungen an das System der amtlichen
Haushaltsstatistiken und deren Wechselwirkungen mit anderen Anforderungen und Rahmenbedingungen.
In dem Projekt WSH wurde ein Grundmodell entwickelt, mit dem verschiedene Haushaltsstatistiken
in einem integrierten System vereint werden sollen. In die konkreten Überlegungen sind zunächst einbezogen: der Mikrozensus mit der Arbeitskräfteerhebung (Labour Force Survey – LFS), die europäische
Erhebung über Einkommen und Lebensbedingungen (EU-SILC) sowie die Erhebung über die private
Nutzung von Informations- und Kommunikationstechnologien (IKT-HH).
Die mit dem integrierten Grundmodell verfolgten Ziele sind: a) die Schaffung eines kohärenten Systems der Haushaltsstatistiken, b) die Erfüllung kommender europäischen Anforderungen an die Haushaltsstatistiken, c) die Ermöglichung bedarfsgerechter Regionalanalysen sowie d) die Flexibilität auf sich
verändernde Datenbedarfe zu reagieren.
Diese Ziele sind nicht unabhängig voneinander, sondern stehen in Wechselbeziehungen. Daher werden
sich nicht alle Ziele gleichermaßen vollumfänglich erreichen lassen.
Aktuell bereitet Eurostat eine Erweiterung der Anforderungen sowohl für den Labour Force Survey als auch für die Erhebung über Einkommen und Lebensbedingungen vor. Durch eine Integration
der Erhebungen zu einem kohärenten System müssen diese teilweise unterschiedlichen Anforderungen
beider Erhebungen von dem Grundmodell gleichermaßen erfüllt werden. Aus regionalstatistischer Perspektive kommt dabei dem Auswertungspotential der größten Haushaltsstichprobe – dem Mikrozensus
– besondere Bedeutung zu.
In dem Beitrag werden die Anforderungen und der aktuelle Stand der Weiterentwicklung des Systems der Haushaltsstatistiken unter besonderer Berücksichtigung der regionalstatistischen Perspektive
berichtet.
103
15.-18. September, Hamburg
Statistische Woche 2015
106 Evaluierung des Zensus 2011 und Konsequenzen für den Zensus
2021
Helmut Eppmann1
Statistikamt Nord, Germany, [email protected]
SECTION: Regional Statistics
Mit dem registergestützten Zensus 2011 wurde in weiten Teilen statistisches Neuland betreten. Der
Zensustest 2001 hat das neue Konzept nur zu einem kleineren Teil getestet. Neu beim Zensus 2011 war
die Art des mixed mode Designs, die für große und kleine Gemeinden unterschiedliche Methode der Feststellung der Einwohnerzahl sowie die Komplexität des Gesamtprojektes. Die erstmalige Durchführung
war daher auch ein Test. Daher war es naheliegend, dass sowohl eine externe Evaluierung als auch eine
Bewertung durch die mit der Durchführung beauftragten Länder erfolgte. Die wichtigsten Ergebnisse
werden vorgestellt. Neben der Untersuchung der komplexen Organisation des Projektes, der Bewertung
der Datenquellen, der Methoden der Aufbereitung stehen drei Aspekte im Vordergrund. Wie sind die
unterschiedlichen Methoden der Feststellung der Einwohnerzahl zu bewerten? Welcher Handlungsbedarf besteht? Wie ist die Qualität der Ergebnisse insgesamt zu bewerten? Insbesondere aus Sicht der
Regionalstatistik? Welcher Handlungsbedarf besteht? Waren Wissenschaft und Städte angemessen beteiligt? Welche Konsequenzen ergeben sich für die künftige Organisation der Durchführung? Werden
alle wesentlichen Erkenntnisse durch das derzeitige Rahmenwerk berücksichtigt?
107 Functional mixed models for subject-replicated data with potential
breakpoints
Rainer von Sachs1 , Joris Chau
Université catholique de Louvain, Belgium, [email protected]
SECTION: Time Series with Structural Breaks
In this talk we will treat a certain functional mixed effects model in the setting of subject-replicated
time series data, showing potential breakpoints in its second order (spectral) structure over time. In
this problem we assume that time series subjects share a common population spectral curve (functional
fixed effect), additional to some random subject-specific deviation around this curve (functional random
effects), which models the variability within the population. We allow this variability to be non-diagonal,
i.e. there may exist explicit correlation between the different subjects in the population. Finally, we
also allow for some structural breaks of these (frequency domain) curves over time, i.e. we face a
segmentation problem over time for this subject replicated spectral analysis.
To estimate the common population curve, within each segment of time constancy, we project the
subject-curves onto an appropriate orthonormal basis (such as a wavelet basis) and continue working
in the coefficient domain instead of the functional domain. In a sampled data model, with discretely
observed noisy subject-curves, the model in the coefficient domain reduces to a finite-dimensional linear
mixed model, where for estimation and prediction of the fixed and random effect coefficients we can
apply both traditional linear mixed model methods and, if necessary by the spatially variable nature of
104
Statistische Woche 2015
15.-18. September, Hamburg
the spectral curves, work with some appropriate non-linear thresholding approach.
The proposed frequency domain estimation approach will finally be embedded into some existing - and
appropriately modified - time-segmentation approach to make the aforementioned analysis time-varying.
Several possibilities exists, some of which will be outlined during this talk.
To illustrate the proposed functional mixed model, we show some examples using simulated time series
data, and an analysis of empirical subject-replicated EEG data.
108 Empirical characteristic function-based estimation for locally
stationary processes
Carsten Jentsch1 , Anne Leucht, Marco Meyer, Carina Beering
Universität Mannheim, Germany, [email protected]
SECTION: Time Series with Structural Breaks
In this paper, we propose a kernel-type estimator for the local characteristic function (local CF) of
locally stationary processes. Under weak moment conditions, we prove joint asymptotic normality for
local empirical characteristic functions (local ECF), where we consider most generally the estimation
of joint local CFs for possibly multivariate processes and lagged observations at several time points.
Amongst others, this allows an extensive analysis of cross-dependence structure of multivariate processes.
Precisely, for processes having a (both-sided) time-varying MA(∞) representation, we establish a central
limit theorem under the assumption of finite absolute moments of the process. Additionally, we prove
process convergence of the local ECF. We apply our asymptotic results to parameter estimation of
time-varying α-stable distributions for α ∈ (1, 2) and to the estimation of heteroskedastic variancegamma distributions. Finally, the applicability of our local ECF is illustrated by analysing the pairwise
dependence structure over time of log returns of German stock prices.
109 Modelling real exchange rates: A Markov-STAR model
Philip Bertram1 , Philipp Sibbertsen, Jun Ma
Leibniz Universität Hannover, Germany, [email protected]
SECTION: Time Series with Structural Breaks
In this paper we introduce a new nonlinear model for macroeconomic time series (Markov-STAR model).
This model is able to pick up the dynamics of the Markov switching model and the smooth transition
autoregressive model. We describe the estimation algorithm and give some stationarity results for this
model. In an empirical application the Markov-STAR model is applied to the real exchange rates of
18 countries. Further we seek macro variables such as output gap, inflation and economic uncertainty
describing the transition probabilities and thus the switching behavior of the real exchange rates.
110 Dual Binary Segmentation for the Detection of Changes in Mean
and/or Variance of Piecewise-Stationary Time Series
105
15.-18. September, Hamburg
Statistische Woche 2015
Anna Louise Schröder1 , Piotr Fryzlewicz
London School of Economics, United Kingdom, [email protected]
SECTION: Time Series with Structural Breaks
We present a novel change-point detection method for piecewise-stationary time series. Our method is
computationally fast and provides easily interpretable results. Under the assumption of sudden changes
which define a segmentation into stationary intervals, our method estimates both number and location
of multiple change points. These change points can take place in the piecewise-constant mean or in
the piecewise-constant variance of the time series, or simultaneously in both quantities. Our algorithm
uses a family of CUSUM-type statistics within Binary Segmentation. We show consistency within the
theoretical framework of infill asymptotics for nonstationary time series. In addition, we provide rates of
convergence and illustrate the performance both in a numerical simulation and applications on empirical
time series.
111 Statistik für Juristinnen und Juristen – Eine Lücke im Aus- und
Weiterbildungsangebot?
Björn Christensen, Tanja Ihden, Martin Missong1
Universität Bremen, Germany, [email protected]
SECTION: Education and Training
Die Frage, ob die Rechtswissenschaft eine empirische Wende“ braucht, wird in jüngster Zeit regelmäßig
”
aufgeworfen und kontrovers diskutiert. Die Debatte findet dabei - grob gesprochen - auf zwei Ebenen
statt: Im wissenschaftlichen Diskurs wird die Vereinbarkeit einer (normenbezogenen) Rechtsdogmatik
mit empirischer Evidenz grundsätzlich hinterfragt, die Argumentation reicht hier bis in die epistemologischen und ontologischen Grundlagen der Jurisprudenz. Zum anderen wird auf pragmatischer Ebene
konstatiert, dass die Empirie bei der Tatsachenfeststellung vor Gericht einen zunehmend festen Stellenwert gewinnt und zu einer sachgerechteren Urteilsfindung beitragen kann. Die anwachsende Bedeutung
quantitativer Befunde in der deutschen Rechtsprechung wird durch eine systematische Auswertung von
Gerichtsurteilen aus allen Rechtsgebieten belegt. Das wirft die Frage auf, welche methodischen Kompetenzen vor Gericht zweckdienlich sind und wie Juristinnen und Juristen beim Umgang mit statistischen
Befunden, die typischerweise in Form von Sachverständigengutachten an sie herangetragen werden,
sinnvoll unterstützt werden können. Der Vortrag zeigt auf, warum traditionelle sozialwissenschaftliche
Methodenkurse weder dazu geeignet scheinen, bei Juristinnen und Juristen ein Interesse an der Rezeption
quantitativer Methoden zu entwickeln, geschweige denn disziplinär hilfreiche statistische Sachkenntnis
zu erwerben. Darauf aufbauend wird in Grundzügen ein aus statistischem Blickwinkel zweckmäßiges
Aus- bzw. Weiterbildungsprogramm für Juristinnen und Juristen skizziert. Abschließend wird diskutiert,
inwieweit der Kern eines solchen Programms zur Vermittlung der Grundzüge unserer Disziplin auch bei
einem weiter gefassten Adressatenkreis beitragen kann.
106
Statistische Woche 2015
15.-18. September, Hamburg
112 Angst vor und Einstellung zum Fach Statistik von
Studienanfängern der Wirtschafts-, Politikwissenschaft und der
Soziologie
Manuel Förster1 , Andreas Maur
Johannes Gutenberg-Universität, Germany, [email protected]
SECTION: Education and Training
Trotz der Bedeutsamkeit mathematischer und vor allem statistischer Kompetenzen auf dem Arbeitsmarkt für Wirtschaftswissenschaftler ist das Fach Statistik für Studierende eines der unpopulärsten und
angstbesetztesten Fächer. Da wissenschaftliche Studien im internationalen Kontext zeigen, dass sich
eine derartige Aversion negativ auf den akademischen Lernerfolg auswirken kann, ist es überraschend,
dass statistische Lehr-Lernprozesse von Hochschulstudierenden in Deutschland bislang kaum umfassend
systematisch erforscht wurden. Ziel des eingereichten Papers ist es, mit Hilfe adaptierter und weiterentwickelter englischsprachiger Fragebögen zu untersuchen, inwieweit sich Studienanfänger der Wirtschaftsund Sozialwissenschaften in ihrer Angst im Umgang mit Statistik, ihren Einstellungen zum Fach Statistik,
ihrem Selbstkonzept und ihrer Motivation unterscheiden. Dazu wurden verschiedene Skalen aus englischsprachigen Fragebögen übersetzt, adaptiert und weiterentwickelt sowie in ein gemeinsames Messmodell
überführt. Für eine erste Validierung der Skalen wurden ca. 350 Studierende verschiedener Disziplinen
im Wintersemester 2014/15 befragt. Es zeigte sich, dass die zugrundeliegenden Dimensionen reliabel
erfasst werden, wenn auch in einigen Fällen hoch miteinander korrelieren. Im Rahmen konfirmatorischer Faktorenanalysen wurde die theoretisch angenommene Faktorenstruktur bestätigt. Im Rahmen
von Strukturgleichungsmodellen konnte festgestellt werden, dass Männer und Frauen sich in verschiedenen Facetten in ihrer Einschätzung deutlich voneinander unterscheiden sowie die Erfahrung im Umgang
mit Statistik ein relevanter Prädiktor für die Angst und die Einstellung in Statistik ist. Zu Beginn des
Sommersemesters 2015 wurde eine Befragung von ca. 800 Bachelorstudierenden der Wirtschafts-, Politikwissenschaften sowie der Soziologie vor Beginn ihres jeweils ersten Statistikkurses an der Hochschule
durchgeführt. Im Vortrag wird diskutiert, ob sich die Studienanfänger der unterschiedlichen Fachdisziplinen in ihrer Einschätzung und Wahrnehmung des Fachs Statistik unterscheiden. Von hoher Relevanz
ist ebenfalls, in wie weit unterschiedliche Subgruppen (Geschlecht, absolvierte Berufsausbildung, Alter,
etc.) sich in ihren Einstellungen und Wahrnehmungen im Fach Statistik bereits zu Beginn des Studiums
unterscheiden. Von den Befunden können direkt Implikationen auf die Lehre im Fach Statistik an der
Hochschule gezogen werden.
113 Weiterbildung zum Statistischen Informationssystem (StatIS-BBB)
Ramona Voshage1 , Katja Baum
Amt für Statistik Berlin-Brandenburg, Germany, [email protected]
SECTION: Education and Training
Das Statistische Informationssystem Berlin – Brandenburg (StatIS – BBB) ist ein Datenbanksystem
des Amtes für Statistik Berlin – Brandenburg (AfS), welches auf Mikrodaten basiert. Nach den ver-
107
15.-18. September, Hamburg
Statistische Woche 2015
schiedenen Statistiken aufgegliedert, ermöglicht es eine fachspezifische Recherche von statistischen Daten in tiefer fachlicher und regionaler Gliederung. Der große Vorteil von StatIS gegenüber anderen
Veröffentlichungsplattformen, in denen lediglich statische, unveränderliche Tabellen angeboten werden,
ist die individuelle, flexible Tabellenerstellung. Das StatIS-Datenangebot richtet sich an die interessierte
Öffentlichkeit im Allgemeinen sowie an Senatsverwaltungen und Ministerien im Besonderen. In dem
Vortrag wird zunächst erläutert, wie die Daten in das StatIS-System eingearbeitet werden. Dabei wird
unter Anderem deutlich, dass ein wichtiger Faktor für das erfolgreiche Einbringen der Informationen in
die Datenbank die enge und kontinuierliche Zusammenarbeit mit den Fachbereichen des AfS ist. Ein
weiteres Thema ist die Gewährleistung der Geheimhaltung trotz individueller Abfragen in StatIS. Der
sichere Umgang mit dem System bei der Erstellung der spezifischen Abfragen ist ein dritter wesentlicher
Aspekt des Vortrags. In diesem Jahr wurden erstmalig Schulungen in Zusammenarbeit mit den Verwaltungen Berlins zu StatIS durchgeführt. In diesen Schulungen lernten die Teilnehmer die unterschiedlichen
Auswertungsmöglichkeiten kennen, die StatIS anbietet, und wurden über Besonderheiten der im System
befindlichen Statistiken informiert.
114 SAS Analytics U – die neue Community für alle, die SAS lernen
wollen
Jürgen Kaselowsky1
SAS Institute GmbH, Germany, [email protected]
SECTION: Education and Training
Schon gewußt? SAS hat eine neue Plattform für alle, die ihre SAS-Kenntnisse vertiefen wollen! SAS
”
Analytics U“ bietet umfangreiche Angebote für Lehrende und Lernende, ganz gleich ob Student, Professor oder Feierabendprogrammierer. Neben dem bereits bewährten SAS OnDemand for Academics“,
”
das nun noch einfacher bedienbar ist, findet man hier auch die downloadbare SAS University Edition“,
”
sowie kostenfreie Einsteiger-e-learnings, youtube-Anleitungen, Lehrmaterialien und Diskussionsforen –
alles auf einer Webseite!
Der Vortrag präsentiert alle Features der Community und zeigt Möglichkeiten, wie man den Einstieg
in die SAS Software bewältigen kann – bis hin zur Zertifizierung
115 Einkommensverteilung als Indikator – Was ist dabei zu beachten?
Norbert Schwarz1
Statistisches Bundesamt, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Nicht nur zur Wohlfahrtsmessung sondern auch für die Analyse wirtschaftlicher und gesellschaftlicher
Entwicklungen ist die Einkommensverteilung ein zentraler Indikator. Als Messgröße wird üblicherweise
das äquivalenzgewichtete Haushaltseinkommen herangezogen. Statistische Basis hierfür sind Haushaltsbefragungen. Konzeptionell gibt es eine Reihe von Aspekten, die berücksichtigt werden müssen: * Bedingt durch das Erhebungsdesign können sich die Ergebnisse unterscheiden. Die Art der Befragung,
die Fragestellung sowie Auswahl und Zahl der befragten Haushalte beeinflussen die Ergebnisse. * Die
108
Statistische Woche 2015
15.-18. September, Hamburg
zugrunde liegenden Einkommenskonzepte sind unterschiedlich. Während monetäre Einkommensbestandteile üblicherweise einbezogen sind, sind nicht-monetäre Bestandteile wie unterstellte Mieten für eigengenutztes Wohneigentum teilweise nicht berücksichtigt. Dies hat Konsequenzen für die Analyse und die
Interpretation der Ergebnisse. * Vor allem unter Wohlfahrtsaspekten stellt sich die Frage nach dem geeigneten Einkommenskonzept. Abhängig von der Finanzierung von Gesundheits- und Bildungsleistungen
sind gerade bei einem internationalen Vergleich erhebliche Verzerrungen möglich, wenn das Einkommenskonzept nur monetäre Bestandteile enthält und staatliche Sachleistungen ausschließt. In dem Vortrag
werden konzeptionelle Unterschiede und ihre Folgen für die Analyse und die Bewertung aufgezeigt. Dabei
steht das zugrunde liegende Einkommenskonzept im Fokus.
116 Messung von subjektivem Wohlbefinden: Empirische Ergebnisse
für Deutschland
Erich Oltmanns1 , Joachim Schmidt
Statistisches Bundesamt, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Wodurch wird subjektives Wohlbefinden beeinflusst? Seitdem der Bericht der internationalen Kommission zur Messung von wirtschaftlicher Leistung und sozialem Fortschritt ( Stiglitz-Sen-Fitoussi-Bericht“)
”
erschienen ist, haben sich eine große Zahl von Studien dieser Frage angenommen – mit teils unterschiedlichem Ergebnis. Zudem beschäftigen sich zunehmend internationale Organisationen mit diesem
Thema. Als Beispiele seien nur die Post-2015-Agenda der Vereinten Nationen und die Initiative der
OECD zu inklusivem Wachstum genannt. Vor dem Hintergrund der Diskussionen auf nationaler und
internationaler Ebene werden Indikatoren für diejenigen Faktoren untersucht, die am häufigsten in Verbindung mit subjektivem Wohlbefinden gebracht werden. Die vorgestellte Studie für Deutschland verfolgt
zwei Ziele: Zum einen werden wichtige Indikatoren in Hinblick auf ihre Relevanz für die Erklärung von
subjektivem Wohlbefinden analysiert. Zum anderen wird untersucht, ob sich die Relevanz dieser Indikatoren im Zeitablauf verändert. Die empirischen Ergebnisse basieren dabei im Wesentlichen auf dem
Sozioökonomischen Panel des DIW (SOEP). Der Datensatz umfasst nicht nur ca. 23.000 Personen in
mehr als 12.000 Haushalten, sondern enthält darüber hinaus Informationen zu Indikatoren subjektiven
Wohlbefindens (Lebensumstände, Selbsteinschätzungen etc.), die im Rahmen der vorgestellten Studie
genutzt worden sind.
117 Entlastungen spürbarer machen – Wie nehmen Bürgerinnen und
Bürger sowie Unternehmen den Kontakt zur Verwaltung wahr?
Bernd Schmidt, Daniel Kühnhenrich1 , Christian Zipse, Carsten Hornbach
Statistisches Bundesamt, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Trotz statistisch nachweisbarer Erfolge beim Umsetzen von Maßnahmen des Bürokratieabbaus wird
häufig eine mangelnde Spürbarkeit der Vereinfachungsmaßnahmen kritisiert. Deshalb hat die Bundes-
109
15.-18. September, Hamburg
Statistische Woche 2015
regierung das Statistische Bundesamt damit beauftragt, Zufriedenheitsbefragungen mit behördlichen
Dienstleistungen auf der Grundlage eines Lebenslagen-Modells zu entwickeln und durchzuführen. Im
Zentrum der Befragung stehen dabei subjektive Erfahrungen beim Kontakt von Bürgerinnen und Bürgern
sowie Unternehmen mit den Behörden innerhalb bedeutender Ereignisse wie der Geburt eines Kindes
oder einer Unternehmensgründung. Die vom Statistischen Bundesamt entwickelte Zufriedenheitsbefragung berücksichtigt internationale Erfahrungen im Bereich der Verwaltungsmodernisierung und Analyse
der Kundenzufriedenheit.
Die 20 Lebenslagen der Bürgerinnen und Bürger wurden unter Hinzuziehung empirischer Ergebnisse
einer repräsentativen Online-Befragung von 1000 Personen ausgewählt, während die zehn betrachteten
Situationen der Unternehmen in Arbeitskreisen mit Verbänden und Interessensvertretungen identifiziert
wurden. Mittels des aus dem Marketing stammenden Customer-Journey-Ansatzes wurde die Interaktion
mit den Behörden in den einzelnen Lebenslagen in sogenannten Reisen durch die Behördenlandschaft
detailliert beschrieben. Rund 5600 Personen sowie rund 1400 Unternehmen gaben in einer telefonischen
Befragung Auskunft zu ihrer Zufriedenheit mit behördlichen Dienstleistungen anhand von 16 Kennzahlen
wie den Öffnungszeiten der Ämter und der Hilfsbereitschaft der dort Beschäftigten. Darüber hinaus wurde
auch nach der Wichtigkeit dieser Aspekte gefragt. Ein auf diesen Angaben basierendes Kennzahlensystem
zeigt an, wie zufrieden Bürgerinnen und Bürger sowie die Unternehmen allgemein und mit speziellen
Faktoren in einzelnen Lebenslagen sind. Dazu wurden im Sinne der Importance-Performance-Analyse die
Werte zur Zufriedenheit mit denen zur Wichtigkeit in Bezug gesetzt. Aus den aggregierten Ergebnissen
sollen konkrete politische Maßnahmen zum spürbareren Bürokratieabbau abgeleitet werden.
Der Beitrag skizziert die politischen Hintergründe, die Methodik zur Identifizierung der Lebenslagen
sowie deren Beschreibung. Schließlich wird auf die Zufriedenheitsbefragungen sowie die daraus resultierenden Ergebnisse eingegangen.
118 Die Gesundheitsausgabenrechnung
Moritz Mannschreck1
Statistisches Bundesamt, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Die Gesundheitsausgabenrechnung ermittelt nach dem Inländerkonzept alle von in Deutschland lebenden Personen getätigten Ausgaben für Waren und Dienstleistungen im Gesundheitswesen. Bei der
Abgrenzung des Gesundheitswesens folgt die Gesundheitsausgabenrechnung dem System of Health Accounts, einem von der OECD, der WHO und Eurostat veröffentlichen Rechenstandard zur Berechnung
von international vergleichbaren Gesundheitsausgaben. Nach dem System of Health Accounts ist bei
der Abgrenzung des Gesundheitsbereichs maßgeblich, dass Ziel der Leistung die Verbesserung oder Erhaltung der Gesundheit von Individuen und der Bevölkerung, oder die Milderung von Krankheitsfolgen
ist. Die Ausübung der Leistung setzt zudem pflegerisches oder medizinisches Wissen oder die Aufsicht
von Personen mit diesem Wissen voraus. Relevant ist außerdem nur der Endverbrauch von Gütern und
Dienstleistungen. Die Gesundheitsausgabenrechnung ermittelt die Gesundheitsausgaben in drei Dimensionen nach Ausgabenträgern, Leistungsarten und Einrichtungen. Ausgangspunkt der Berechnung sind
die Rechnungsergebnisse der Ausgabenträger, insbesondere der gesetzlichen Krankenversicherung und
der privaten Krankenversicherung. Da für den Ausgabenträger private Haushalte und private Organisationen ohne Erwerbszweck keine Rechnungsergebnisse vorliegen, dienen hier die Umsatzwerte (Pro-
110
Statistische Woche 2015
15.-18. September, Hamburg
duktionswerte) der Einrichtungen des Gesundheitswesens als Datenquelle. Die über die Ausgabenträger
ermittelten Werte werden anschließend auf Leistungsarten und Einrichtungen verteilt. Sofern eine Ausgabenposition nicht eindeutig auf die Leistungsarten oder Einrichtungen verteilt werden kann, werden dafür
Verteilungsschlüssel genutzt. Mit der Gesundheitsausgabenrechnung liegt eine konsistente Zeitreihe von
1992 bis 2013 vor. Die Auswirkungen von politischen Entscheidungen und demografischen Entwicklungen
auf die Entwicklung und Verteilung der Gesundheitsausgaben können somit nachvollzogen werden. So
ist der Anteil des Ausgabenträgers private Haushalte im Zeitverlauf kontinuierlich angestiegen, während
der Anteil der öffentlichen Haushalte abgenommen hat. Des Weiteren steigen die Anteile der ambulanten
und stationären/teilstationären Pflegeeinrichtungen ebenfalls stetig an, rückläufig sind die Anteile der
Zahnarztpraxen, Apotheken und Krankenhäuser. Abnehmend sind auch die ärztlichen Grundleistungen,
die ärztlichen Sonderleistungen nehmen hingegen zu.
119 Steuerungsrelevante Kennzahlen für den Hochschulbereich
Pia Brugger1
Statistisches Bundesamt, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Hauptaufgabe der Hochschulstatistik ist es, steuerungsrelevante Informationen für Hochschulplanung
und Hochschulpolitik zur Verfügung zu stellen. Darüber hinaus ist die Hochschulstatistik unverzichtbar für die nationale und internationale Bildungs- und Forschungsberichterstattung, Damit die Hochschulschulstatistik vor dem Hintergrund des Wandels der Hochschullandschaft auch in Zukunft diesen
Anforderungen gerecht werden kann, hat der Ausschuss für die Hochschulstatistik Empfehlungen zur
Novellierung des Hochschulstatistikgesetzes vorgelegt. Im Mittelpunkt stehen die Einführung einer Studienverlaufsstatistik und einer Promovierendenstatistik sowie die Erweiterung des Merkmalskatalogs zum
wissenschaftlichen Personal. Der Vortrag wird die Empfehlungen zur Neuausrichtung der Hochschulstatistik erläutern und einen Überblick über den aktuellen Stand der Umsetzung geben.
120 Monetäre Kennzahlen im Bildungsmonitoring
Arne Schmidt1 , Dr. Nicole Buschle
Statistisches Bundesamt, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
In Deutschland wurde in den letzten beiden Jahrzehnten ein Bildungsmonitoring aufgebaut, welches vergleichbare und objektive Informationen bereitstellt. So wurden Kennzahlen und Indikatoren entwickelt,
um bspw. Informationen über die Rahmenbedingungen, den Input, die Verläufe und die Entwicklung
innerhalb des Bildungswesens aufzeigen zu können. Die Kennzahlen und Indikatoren stellen den Status
Quo im Bildungssystem dar und liefern eine datengestützte Grundlage, die den Handlungsbedarf im
Bildungswesen aufzeigt und zielgerichtete Investitionen in Bildung initiieren können. Verwendung finden
die Kennzahlen und Analysen in einem Bildungsberichtsystem, das sich aus verschiedenen regelmäßig
erscheinenden Berichten und Publikationen zusammensetzt, die sowohl das gesamte Bildungswesen als
111
15.-18. September, Hamburg
Statistische Woche 2015
auch einzelne Bereiche (Kindertageseinrichtungen, Schule, Hochschule usw.) fokussieren. Hier sind internationale, nationale, regionale sowie bereichsspezifische Berichte zu nennen, z.B. Education at a Glance,
Bildung in Deutschland, Internationale Bildungsindikatoren im Ländervergleich, Berufsbildungsbericht,
Bildungsfinanzbericht etc. Für die Leistungsfähigkeit des Bildungswesens ist insbesondere die Ausstattung mit finanziellen Ressourcen von großer Bedeutung. Einen Überblick über das Bildungsbudget und
die öffentlichen Bildungsausgaben bietet auf nationaler Ebene der Bildungsfinanzbericht. Die Fachserie
Monetäre hochschulstatistische Kennzahlen“ beinhaltet verschiedenste Kennzahlen für den Hochschul”
bereich. Der Vortrag wird sich auf ausgewählte monetäre Kennzahlen konzentrieren und deren Methodik
und Ergebnisse für die Bildungsbereiche Schule und Hochschule hinsichtlich ihrer Steuerungsrelevanz
darstellen.
121 Bildung im Lebenslauf - Ergebnisse der Zeitverwendungserhebung
2012/13
Iris Gönsch1
Statistisches Bundesamt, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Bei Kindern und Jugendlichen nehmen Bildungsaktivitäten einen Großteil der verfügbaren Zeit ein.
Während der Betreuungsaspekt lange den vorschulischen Bereich dominierte, rückte in den letzten Jahren der Bildungsaspekt immer stärker in den vordergrund. Als Bildungsphase wurden somit vor allem
die ersten zwei bis drei Lebensjahrzehnte betrachtet, die dann von der Erwerbsphase abgelöst wurde.
Obwohl die Bedeutung des lebenslangen Lernens schon früher diskutiert wurde, hat das Thema in der
öffentlichen Wahrnehmung sowie in der deutschen und europäischen Politik erst Mitte der 1990er Jahre
an Bedeutung gewonnen. Dies geschah insbesondere vor dem Hintergrund der schnelleren Veränderungen
von Anforderungen an den Einzelnen in einer zunehmend auf Wissen basierten Gesellschaft und Wirtschaft (Alheit und Dausien, 2009). Neben der zeitlichen Dimension wird Bildung auch institutionell
breiter betrachtet, zunehmend wird auch nicht-formelle Bildung berücksichtigt. Darunter versteht man
Bildungsangebote, die beispielsweise von Vereinen, Verbänden, Unternehmen oder Kirchen organisiert
werden und nicht zu allgemein anerkannten Bildungsabschlüssen führen.
Das beschriebene umfassende Verständnis von Bildungsaktivitäten und die Ausweitung des Begriffes
Bildung erschweren die empirische Erfassung und Analyse. Durch ihre verschiedenen Erhebungsinstrumente bietet die Zeitverwendungserhebung 2012/13 auf verschiedene Weise Informationen über die Zeit,
die Personen bzw. Personengruppen für Bildung nutzen. Für Kinder unter 10 Jahren entstammen diese
Informationen dem Haushaltsfragebogen, für Personen ab 10 Jahren dagegen aus dem Personenfragebogen bzw. dem Tagebuch. Während die Aktivitäten im Tagebuch frei beschrieben werden können, fragen
sowohl der Haushalts- als auch der Personenfragebogen gezielt verschiedene Bildungsaktivitäten ab.
Durch eine Kombination der Informationen aus den unterschiedlichen Erhebungsinstrumenten lässt sich
aufzeigen, wie viel Zeit Personen unterschiedlicher Altersgruppen für Bildung nutzen. Dies wird nach
Geschlecht und – soweit möglich – weiteren Merkmalen (z.B. Erwerbstätigkeit) differenziert. Während
einerseits Bildungsaktivitäten als homogene Tätigkeit insgesamt betrachtet werden, werden diese im
zweiten Schritt differenzierter betrachtet: Zunächst wird zwischen formellen und nicht-formellen Bildungsaktivitäten unterschieden. Im Bereich des informellen Lebenslangen Lernens wird außerdem zwi-
112
Statistische Woche 2015
15.-18. September, Hamburg
schen berufsorientierter (Weiter-) Bildung, die während der Arbeitszeit stattfindet und Bildung außerhalb
der Arbeitszeit (aus persönlichen Gründen oder für den Beruf) unterschieden.
122 Der Sozialindex für Hamburger Schulen
Klaudia Schulte1
Institut für Bildungsmonitoring und Qualitätsentwicklung, Germany, [email protected]
SECTION: Statistical Indicators for Policy Monitoring
Hamburg ist eine Stadt beträchtlicher sozialer Disparitäten: Während in einigen Regionen vor allem Personen mit hohen Einkommen und Bildungsabschlüssen wohnen, ballen sich in anderen Regionen soziale
Problemlagen wie hohe Arbeitslosigkeit und Kinderarmut. Diese heterogenen Ausgangslagen spiegeln
sich auch in den Schulen wider. Da jedoch die sozialen Bedingungen, aus denen Schülerinnen und
Schüler stammen und in denen sie lernen, ausschlaggebend für den Lernerfolg und Bildungsabschlüsse
sind, verteilen sich auch die Bildungs- und Teilhabechancen der Schülerinnen und Schüler sehr unterschiedlich. Kinder aus sozial schwierigen Verhältnissen sind in Großstädten oft doppelt benachteiligt: Sie
bringen von zu Hause aus weniger Unterstützung mit und besuchen darüber hinaus häufig Schulen mit
einem hohem Anteil von Schülerinnen und Schülern aus belasteten Verhältnissen (Kompositionseffekt).
Diese Schulen müssen in der Folge erhebliche Mehrarbeit leisten. Um den vorhandenen Ungleichheiten
entgegenzuwirken, gibt es den Hamburger Sozialindex für alle staatlichen allgemeinbildenden Schulen.
Der Sozialindex beschreibt die sozialen Rahmenbedingungen der Schulen auf einer Skala von 1 (stark
belastet) bis 6 (wenig belastet). Die Schulindizes haben unter anderem erhebliche Auswirkungen auf
Ressourcenallokationen (z. B. kleinere Klassenfrequenzen für Schulen mit Sozialindex 1 oder 2). Zur
Berechnung des Sozialindex werden seit 1996 alle fünf bis sieben Jahre über 30.000 Schülerinnen und
Schülern sowie deren Eltern mit Fragebögen zu ihrem sozialen Hintergrund befragt. Darüber hinaus
werden amtliche Daten aus dem Statistikamt Nord in die Berechnung integriert, z.B. der Anteil der
Arbeitslosigkeit. Anhand exploratorischer und konfirmatorischer Faktorenanalysen auf Schulebene wird
ein intervallskalierter Belastungssore als Grundlage für die sechsstufige Einteilung des Sozialindex berechnet. Im Rahmen des Vortrags werden die theoretische Fundierung sowie die Berechnungsmethode
des Sozialindex erläutert.
123 Forecasting Comparison of Long Term Component
Dynamic Models For Realized Covariance Matrices
Luc Bauwens1
, Belgium, [email protected]
SECTION: Empirical Finance
Novel model specifications that include a time-varying long run component in the dynamics of realized
covariance matrices are proposed. The adopted modeling framework allows the secular component to
enter the model structure either in an additive fashion or as a multiplicative factor, and to be specified
parametrically, using a MIDAS filter, or non-parametrically. Estimation is performed by maximizing a
113
15.-18. September, Hamburg
Statistische Woche 2015
Wishart quasi-likelihood function. The one-step ahead forecasting performance of the models is assessed by means of three approaches: the Model Confidence Set, (global) minimum variance portfolios
and Value-at-Risk.The results provide evidence in favour of the hypothesis that the proposed models
outperform benchmarks incorporating a constant long run component, both in and out-of-sample.
124 Testing for Cojumps - A Multivariate Coexceedance-based
Approach
Markus Kösler1
Universität Köln, Germany, [email protected]
SECTION: Empirical Finance
We consider the problem of testing the synchronicity of jumps, i.e., the presence of cojumps, using
high frequency financial data. This is done in the framework of multivariate log price processes with
stochastic volatility and compound Poisson jump processes.
Testing for cojumps requires a univariate jump detection procedure that tests for and locates jumps.
To this end we apply the approach by Lee and Mykland (2008) that relies on univariate returns standardized by a jump-robust local volatility estimator. This test for the null hypothesis of no jumps relies
on arguments from extreme value theory to control the overall size of the procedure, considering the
multiple testing nature of the problem. Lee and Mykland (2008) show that there exists an optimal
critical value that minimizes the joint probability of global misclassification (Type I + Type II error),
but that depends on the unknown number of jumps. We propose an iterative updating procedure for
the critical value and show that it converges to this optimal value under mild conditions.
We propose several test statistics for the null hypothesis of independent jump processes against
the alternative of dependent jump processes. The test statistics compare the number of coexceedances
with their expected number under the null of independent jump processes. We derive the asymptotic
distributions of these test statistics under double asymptotics, increasing both the observation frequency
and the length of the sample. It is shown that the asymptotic distributions do not depend on the jump
detection and the estimation of the unknown jump intensity. For finite samples we suggest a block
bootstrap procedure that can mitigate size distortions of some of the test statistics. Furthermore, we
extend the tests to the context of non-homogeneous jump occurrences using Hawkes processes to model
the jump intensities.
A comprehensive Monte Carlo study examines the finite sample properties of the tests in a realistic
market scenario and an application to financial high-frequency data illustrates its practical use.
125 Bayesian Regularization of Portfolio Weights in High-Dimensional
Asset Spaces
Christoph Frey1 , Winfried Pohlmeier
Universität Konstanz, Germany, [email protected]
SECTION: Empirical Finance
114
Statistische Woche 2015
15.-18. September, Hamburg
We propose a novel regression approach for optimizing portfolios by means of Bayesian regularization
techniques. In particular, we represent the weight deviations of the global minimum variance portfolio
(GMVP) from a reference portfolio (e.g. the naive 1/N portfolio) as regression coefficients and apply
different shrinkage techniques in order to stabilize the portfolios against estimation errors. Directly
modeling the optimal portfolio weights through Bayesian priors avoids estimating the moments of the
asset return distribution and tremendously reduces the dimensionality of the problem. Our methodology
is applicable when the number of assets is large compared to the time dimension and it can incorporate
inequality restrictions on the portfolio weights. We compare our method to popular frequentist shrinkage
approaches and find that it shows better out-of-sample performance based on various criteria. This holds
for different asset classes and is stronger for larger portfolio dimensions.
126 Prior information, but no MCMC: A Bayesian Normal linear
regression case study
Katy Klauenberg1 , Gerd Wübbeler, Bodo Mickan, Peter Harris, Clemens Elster
Physikalisch-Technische Bundesanstalt, Germany, [email protected]
SECTION: Statistics in Science and Technology
Regression is a very common task and frequently additional a priori information exists. Bayesian inference
is well suited for these situations. However, often the need for MCMC methods and difficulties in eliciting
prior distributions prevent the application of Bayesian inference.
Oftentimes prior knowledge is available from an ensemble of previous, similar regressions. Pooling
the posterior distributions from previous regressions and approximating the average by a wide distribution from a parametric family is suitable to describe practitioners’ a priori belief of a similar regression.
Likewise for linear regression models with Gaussian measurement errors: prior information from previous
regressions can often be expressed by the normal inverse Gamma distribution - a conjugate prior. Yielding an analytical, closed form posterior distribution, one can easily derive estimates, uncertainties and
credible intervals for all parameters, the regression curve as well as predictions for this class of problems.
In addition, we describe Bayesian tools to assess the plausibility of assumptions behind the suggested
approach - also without Markov Chain Monte Carlo (MCMC) methods.
A typical problem from metrology will demonstrate the practical value. We apply the Normal linear
regression with conjugate priors to the calibration of a flow device and illustrate how prior knowledge
from previous calibrations may enable robust predictions even for extrapolations. In addition we provide
software and suggest graphical displays to also enable practitioners to apply Bayesian Normal linear
regression.
127 Objective Bayesian inference for random effects in a random
effects model
Olha Bodnar1 , Alfred Link, Clemens Elster
Physikalisch-Technische Bundesanstalt, Germany, [email protected]
115
15.-18. September, Hamburg
Statistische Woche 2015
SECTION: Statistics in Science and Technology
Random effects models play an important role in statistics. They are commonly applied when measurements on the same entity are taken at different times or different locations. Examples comprise the
combination of results from different clinical studies in medical research, or the analysis of interlaboratory studies in metrology. In particular for the latter application prediction of the random effects is of
great interest.
We are interested in an objective Bayesian inference of a particular type of heteroscedastic random
effects models relevant in metrology. We contribute to existing approaches by providing the posterior
distribution for the realizations of the random effects in analytical form up to one-dimensional quadrature. As noninformative priors Jeffreys prior as well as the Berger and Bernardo reference prior are derived.
The inferential properties of the posteriors are investigated in terms of simulations. This is achieved
by constructing 95% credible intervals and exploring their lengths and coverage probabilities. Moreover,
we investigate the robustness of the inferences when model assumptions are violated. Finally, results for
an interlaboratory comparison from metrology are presented and discussed.
128 Functional outlier detection using data depth in a thermal spraying
process
André Rehage1 , Sonja Kuhnt
TU Dortmund, Germany, [email protected]
SECTION: Statistics in Science and Technology
Functional data analysis is a rapidly growing topic in statistical analysis and respective extensions of
classical data analysis tools like PCA, data depth or GLM can be found in the literature. We consider
an application in thermal spraying, where due to advanced measurement technology, particle properties
in flight are recorded over time, resulting in functional data and the use of functional generalized linear
models. As in other situations, outliers can occur and severely influence the data analysis. Functional
outliers can be divided in at least two different categories: Magnitude outliers and shape outliers. For each
type, functional data depths have been constructed that assign an index determining the outlyingness
of each observation. As functional depth measure with respect to magnitude we look at the modified
band depth. Having shape outliers in mind, we recently developed the functional tangential angle depth.
In this contribution we show how the different outlier types affect the estimated model and how outlier
detection can be performed to improve the reproducibility and predictability, utilizing real life data from
the thermal spraying process.
129 Methods from algebraic statistics to determine identifiable
regression models from noisy designs
Sonja Kuhnt1 , Riccomagno Eva, Rudak Nikolaus
FH Dortmund, Germany, [email protected]
116
Statistische Woche 2015
15.-18. September, Hamburg
SECTION: Statistics in Science and Technology
A key element in the design of experiments is the question which regression models can be estimated
from the resulting data. We consider situations where observations or predictions from the chosen
experimental design are themselves input variables for an eventual output. An application in thermal
spraying is treated, where noisy non-standard designs occur as intermediate result in such a two stage
process. The entry to using tools from algebraic statistics for the study of model identifiability is the
presentation of design points as zeros of a system of polynomial equations. Thereby the design is
identified by a polynomial ideal whose properties provide insight into the models identifiable by the
design. We extend this approach, which is so far based on exact input data, to noisy designs by use of a
numerical version of the Buchberger-Möller algorithm. Applied to the thermal spraying application this
opens model building towards higher order interactions rather than restricting the class of considered
models to main effects or two-way interactions only.
130 Indikatoren für den vorschulischen Bildungsbereich
Ulrike Rockmann1
Senatsverwaltung für Inneres und Sport Berlin, Germany, [email protected]
SECTION: Regional Statistics
Der vorschulische Bildungsbereich ist seit längerem in den Fokus der bildungspolitischen Debatte
gerückt. Die Erwartungen an diesen frühen Bildungsabschnitt sind vielschichtig. Angestrebt wird eine hohe Qualität der Bildungs- und Betreuungsaktivitäten, die u. a. einen guten Übergang in die Schule
ermöglichen sollen. Insbesondere in Städten wie Berlin mit großen sozialen Ungleichheiten und einem
hohen Anteil von nicht Deutsch sprechenden Familien stellen diese Erwartungen eine nicht unerhebliche Herausforderung für die Einrichtungen dar. Die Situationsbeschreibung für diesen Bildungsabschnitt folgt der international gängigen Gliederung in Kontext/Input – Prozess – Output/Outcome. Das
Kontext/Input-Segment beschreibt die Bereitstellung der Angebote. Durch den Ausbau der amtlichen
Kinder- und Jugendhilfestatistik steht inzwischen eine Vielzahl von einfachen Kennziffern und komplexen
Indikatoren zur Verfügung, so über die Einrichtungen, das Personal sowie dessen Qualifikationen. Über
den Prozess – Teilnahmeverlauf, pädagogischen Angebote, etc. – ist hingegen nur wenig deutschlandweit
bekannt. Die im Rahmen des National Education Panel Surveys (NEPS) hierzu erhobenen Informationen sind aufgrund der Fallzahl nur für deutschlandweite aber nicht für kleinräumige Analysen nutzbar.
Im Unterschied zu anderen Bildungsbereichen liegt beim Verlassen der Kindertageseinrichtungen kein
formaler Abschluss vor. Die vor Schuleintritt durchgeführte Sprachstandserhebung kann grundsätzlich
im Zusammenhang mit den Angeboten der Kindertageseinrichtungen stehen, jedoch sind sowohl die in
den Einrichtungen durchgeführten Maßnahmen und Förderprogramme wie auch die Erhebung selber in
jedem Bundesland weiterhin völlig unterschiedlich. Am Beispiel von Berlin sowie dem Stadtbezirk Mitte
werden Überlegungen zu einem Indikatorenset vorgestellt.
131 Zensus 2011: Deutschlandweit kleinräumige Daten
Stephanie Hirner1 , Michael Neutze
Statistisches Bundesamt, Germany, [email protected]
117
15.-18. September, Hamburg
Statistische Woche 2015
SECTION: Regional Statistics
Eines der Kernmerkmale des Zensus ist die Datenerhebung für jede Anschrift. Mit keiner anderen Statistik können Informationen zur Bevölkerung und zur Wohnsituation in so hoher räumlicher Auflösung
ausgewertet werden. Traditionell wurden Ergebnisse von Volkszählungen bis hinunter zur Blockseite bereitgestellt. Diese Zuordnung ist jedoch nicht maschinell umsetzbar und es gibt dafür keine einheitliche
Vorgehensweise. Beim Zensus 2011 hatten die Kommunen die Möglichkeit, den Statistischen Ämtern des
Bundes und der Länder eine Blockseitenzuordnung oder andersartige untergemeindliche Gliederungen zu
überliefern um danach aggregierte Zensusergebnisse zu erhalten. Für Städte mit abgeschotteter Statistikstelle besteht zudem die Möglichkeit, für einen begrenzten Zeitraum Einzeldaten mit Anschriftenbezug
zu erhalten, sodass sich diese Städte selbst Zensusergebnisse in untergemeindlichen Gliederungen erzeugen können. Von diesen Möglichkeiten ist nicht flächendeckend Gebrauch gemacht worden, sodass
untergemeindliche Zensusergebnisse oder gar solche für Blockseiten nicht durchgängig vorausgesetzt
werden können bzw. können sie in Teilen von Planungsräumen vorhanden sein und dann aber an der
Stadtgrenze abrupt enden. Hier setzt die Georeferenzierung mit der Zuordnung der Zensusergebnisse
zu einem europaweit einheitlich definierten 100m-Gitter an (INSPIRE). Dieses ist einerseits künstlich,
indem es nicht der Gebäude- und Wegestruktur folgt, aber es war aufgrund der Geokodierung aller Anschriften des Zensus mit vergleichsweise geringem Aufwand maschinell und flächendeckend zu erzeugen.
Mittels moderner Geographischer Informationssysteme (GIS) lassen sich diese gitterbasierten Ergebnisse
visualisieren und mit anderen Karteninformationen verschneiden. Die Präsentation wird die unterschiedlichen georeferenzierten Produkte des Zensus 2011 vorstellen, vom interaktiven Online-Atlas bis zur
Bereitstellung von Massendaten zum Download und diese der Ergebnispräsentation für administrative
Gliederungen gegenüberstellen. Ein halbes Jahr nach Veröffentlichung gitterbasierter Zensusergebnisse in Karten- und Tabellenform liegen erste Erfahrungen mit der Nutzung dieser Ergebnisdarstellung
vor. Schließlich wird auf die gesetzlich vorgeschriebene Geheimhaltung eingegangen. Es wird aufgezeigt,
welche Größenordnungen die erforderlichen Sperrungen in Abhängigkeit von inhaltlicher wie räumlicher
Tiefe ausmachen und welche Empfehlungen für den praktischen Umgang abgeleitet werden können.
132 Dichteschätzung von Migranten auf Basis des Berliner
Einwohnerregisters
Timo Schmid1 , Marcus Groß, Ulrich Rendtel, Sebastian Schmon, Nikos Tzavidis
Freie Universität Berlin, Germany, [email protected]
SECTION: Regional Statistics
Modern systems of official statistics require the timely estimation of area-specific densities of subpopulations. Ideally estimates should be based on precise geo-coded information, which is not available
due to confidentiality constraints. One approach for ensuring confidentiality is by rounding the geocoordinates. In this talk we propose multivariate non-parametric kernel density estimation that reverses
the rounding process by using a Bayesian measurement error model. The methodology is applied to the
Berlin register of residents for deriving density estimates of ethnic minorities and aged people. Estimates
are used for identifying areas with a need for new advisory centres for migrants and infrastructure for
older people. In addition we empirically evaluate the performance of the proposed methodology under
different assumptions for the rounding error process with data generated from known bivariate densities.
118
Statistische Woche 2015
15.-18. September, Hamburg
The precision of the density estimates provided by the proposed methodology is contrasted to the
precision of the estimates derived by using a Naive kernel density estimator that fails to account for the
presence of rounding error.
133 Regionaler Bildungsatlas Hamburg
Flavia Suter1 , Sebastian Leist
Institut für Bildungsmonitoring und Qualitätsentwicklung (IfBQ), Germany
SECTION: Regional Statistics
Der Regionale Bildungsatlas Hamburg ist ein interaktives Onlinetool, das detaillierte statistische Informationen zum Thema schulische und außerschulische Bildung für das gesamte Hamburger Stadtgebiet bereitstellt. Im Vortrag wird anhand ausgewählter Fragestellungen demonstriert, wie Daten zu
Bildungs- und Betreuungsangeboten, Nutzungszahlen, Schuleinzugsgebieten, Bildungsübergängen und
Abschlüssen für die einzelnen Hamburger Stadtgebiete in interaktiven Karten abgerufen und miteinander verknüpft werden können. Weitere Funktionalitäten der interaktiven Karten wie das Anzeigen von
Zeitreihen oder weiteren Gebietsgrenzen werden ebenfalls vorgeführt. Im letzten Teil des Vortrags wird
der Aspekt der Nutzung des Regionalen Bildungsatlas durch lokale und bezirkliche Akteure für eine
regionale Bildungssteuerung näher beleuchtet.
134 ESTIMATION OF STRUCTURAL BREAKS AND SPATIAL
BOUNDARIES IN BRAIN SIGNALS AND IMAGES
Hernando Ombao1
University of California, Irvine, United States of America, [email protected]
SECTION: Time Series with Structural Breaks
The human brain is a highly complex organ. One of its primary function is to extract relevant information
from sensory inputs: light, sound, temperature, spatial orientation and more. The brain exerts centralized
control over the other organs of the body which is needed for rapid and coordinated responses to changes
in the environment. The brain is also responsible for processing new information as it learns to adapt to
the changing environment and to learn new tasks.
The brain’s response to the constantly-changing external inputs is highly dynamic. In fact, brain
activity at a localized region (or channel) following a stimulus presentation often displays temporal
non-stationarity as reflected by changes in the variance, auto-correlation and spectrum. In addition,
the strength of dependence between different regions (or group of channels) can also vary across time
within an epoch and across epochs in the entire experiment. Moreover, it is widely accepted that local
populations of neurons generally exhibit local-specific behavior that could vary across other brain regions.
The task then would be to determine these spatial boundaries.
In this talk, we will discuss these open problems and present an overview of the novel spectral-based
approaches currently being developed in our group. To determine spatial boundaries, we develop a clustering method where the dissimilarity measure between two brain signals is defined to be the total variation
119
15.-18. September, Hamburg
Statistische Woche 2015
distance between their spectral densities. We propose the novel hierarchical merger algorithm which is
a modification of the usual agglomerative hierarchical procedure. We present some data visualization
techniques and apply our method to electroencephalograms (EEGs) recorded in a motor learning study.
135 A multi scale method for change point detection in point processes
Michael Messer, Stefan Albert, Julia Schiemann, Jochen Roeper, Ralph Neininger, Gaby Schneider1
Goethe University Frankfurt, Germany, [email protected]
SECTION: Time Series with Structural Breaks
Nonstationarity of the event rate is a persistent problem in modeling time series of events, such as
neuronal spike trains. Motivated by a variety of patterns in empirical spike trains, we define a class of
renewal processes with a certain variability in the variance of life times. Within this class we test the
null hypothesis of stationary rate versus a wide alternative of renewal processes with finitely many rate
changes (change points).
Extending ideas from the filtered derivative approach, we propose to use multiple moving windows
simultaneously in the statistical test. We also develop a corresponding multiple filter algorithm. This
can be used when the null hypothesis is rejected in order to estimate the number and location of change
points. In a simulation study we show an increased detection probability of multiple filtering as compared
to a single window approach. We also discuss implications of our approach to the detection of variance
change points.
Application to spike trains recorded from dopamine midbrain neurons in anesthetized mice illustrates
the relevance of the proposed techniques as preprocessing steps for methods that assume stationarity of
the process parameters.
136 Long-run variance and change-set estimation for spatial data
under change-point alternatives
Béatrice Bucchia1
Universität zu Köln, Germany, [email protected]
SECTION: Time Series with Structural Breaks
In this talk, we consider the problem of estimating the long-run variance of a multiparameter stochastic
process whose mean-function has an abrupt jump. We assume that the process is the sum of its mean
function and a centered weakly stationary process that fulfills some weak dependence and moment
conditions. Due to the non-constant mean, kernel-type long-run variance estimators using the arithmetic
mean of the observations as a mean estimator have an unbounded error for changes that do not vanish
asymptotically. To reduce this effect, we use a mean estimator which is based on an estimation of the
change-set. We give some examples of mean estimators under different assumptions on the type of
change-set.
120
Statistische Woche 2015
15.-18. September, Hamburg
137 Airborne multipollutants population exposure in Europe using
semiparametric spatio temporal models
Alessandro Fasso’1 , Francesco Finazzi, Ferdinand Ndongo
University of Bergamo, Italy, [email protected]
SECTION: DStatG/ISG
We consider the distribution of population by exposure to multiple airborne pollutuants at various spatial
and temporal resolutions over Europe. To do this we use high resolution semiparametric estimates of
daily average concentrations for seven pollutants in years 2009-2011.
In order to exploit the spatial information content and allow the computation of daily multipollutant
exposure distribution, uncertainty included, we use a multivariate spatio-temporal model capable to
handle non Gaussian large datasets such as multivariate and multiyear daily air quality, land use and
meteorological data over Europe.
138 Spatio-temporal wind speed forecasting
Daniel Ambach1 , Wolfgang Schmid
Europa-Universität Viadrina, Frankfurt (Oder)
SECTION: DStatG/ISG
Currently, we observe a broad variety of different wind speed and wind power prediction models as
Jung and Broadwater (2015) cover. For instance state Numerical Weather Predictions utilize huge
amounts of computing time. Some of them have rather low spatio-temporal resolution. However, time
series prediction model provide good results for univariate temporal predictions. Ambach and Schmid
(2015) achieve good results with a periodic regressors and an autoregressive fractional integrated moving
average model which incorporates conditional heteroscedasticity within the variance part. Concerning
the wind power prediction Croonenbroeck and Ambach provide an overview of several time series
models as Soman et al. (2010) point out. The consumption of computing capacities of those time
series model is relatively low and return accurate short-term to medium-term forecasts as.
Though, the recent literature deal with the topic of spatial interdependence like Han and Chang
(2010) or Zhu et al. (2014). This presentation will cover the problem of spatial and temporal wind
speed modelling. We describe the temporal model structure independently on spatial correlations. The
main aim is to deal with a model for wind speed which is easy applicable and provide reliable forecasts
in both space and time. The recommendation is to use a periodic space-time autoregressive model
with external explanatory variables which describe the wind dynamics. The periodicities are modelled
by periodic B-spline functions (see Eilers and Marx 1996) and space and time autoregressive
components (see Cressie and Wikle 2011). The wind speed observations are noisy meteorological
variable, which makes it hard to model, but the presented spatio-temporal model provides a useful
procedure to predict the wind speed.
1 Ambach D., Schmid W. (2015); Periodic and long range dependent models for high frequency wind
speed data. Energy 82:277-293.
121
15.-18. September, Hamburg
Statistische Woche 2015
2 Cressie N., Wikle C.K. (2011); Statistics for spatio-temporal data. John Wiley & Sons
3 Eilers P.H., Marx B.D. (1996); Flexible smoothing with b-splines and penalties. Statistical Science
89-102.
4 Han Y., Chang L. (2010); A study of the reduction of the regional aggregated wind power forecast
error by spatial smoothing effects in the maritimes Canada. In: 2nd IEEE International Symposium
on Power Electronics for Distributed Generation Systems 942-947.
5 Jung J., Broadwater R. P. (2014); Current status and future advances for wind speed and power
forecasting. Renewable and Sustainable Energy Reviews 31:762-777 .
6 Soman S. S., Zareipour H., Malik O., Mandal P. (2010); A review of wind power and wind speed
forecasting methods with different time horizons. IEEE In North American Power Symposium
(NAPS) 1-8.
7 Zhu X., Genton M.G., Gu Y., Xie L. (2014); Space-time wind speed forecasting for improved power
system dispatch. Test 23(1):1-25.
139 The Fallacy of the Log-Ratio Standard for Econometric Analysis
Christian Westphal1
none, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
The use of log-ratios is widespread for the econometric analysis of economic problems: OLS estimators’
results conveniently represent elasticities between percentages. Often, the same denominator is used for
the ratio that is the dependent variable, and for the ratio that is the independent variable. This model
on paper is ‘elegant’, and ‘compact’, and it leads to an interpretation that appeals to economists. It is
sort of a ‘de-facto standard’, set by even highest ranked publications in economic journals. Yet, there is
an enormous problem with the use of log-ratios for regression analysis: it can (and most often will) lead
to heavily biased results through an ignored linear restriction. Biased results, however, should never be
the grounds for economic policy.
This phenomenon is well known since Karl Pearson’s findings on spurious correlation between ratio
variables in 1896. It has been revisited in detail for the case of regression analysis with ratio variables
by Kronmal (1993), leading to the unsatisfactory – and in my experience yet euphemistic – conclusion
of “it may be difficult to convince some researchers that they should give up their most prized ratio or
index.”
For the log-ratio standard, the problem is even more pronounced: using log-ratios imposes a linear
restriction on the estimator. Whenever this artificial restriction is not true, results will be biased.
I show the problem’s econometric theory, I provide ways to detect the problem, and I illustrate the
problem’s severeness. Using an example of a Journal of Public Economics article, I explore a more
complex situation. That article was the basis for arguments for stricter gun control in the United States
over many years. It is a prime example where biased results were used for a public policy argument. I
conclude on methodologically straightforward solutions to the problem.
122
Statistische Woche 2015
15.-18. September, Hamburg
140 Synthetic Control Methods: Never Use All Pre-Intervention
Outcomes as Economic Predictors
Ashok Kaul, Stefan Kloessner, Gregor Pfeifer1 , Manuel Schieler
Universität Hohenheim, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
We show that when applying synthetic control methods, it is vital to carefully handle pre-treatment
observations of the outcome variable. In particular, we demonstrate both theoretically and by taking
empirical examples from the literature that using all lagged values of the dependent variable as separate
economic predictors renders all other covariates irrelevant, i.e. weights of zero are assigned to all other
covariates. This holds no matter what the covariates actually are and how important and helpful these
might be in order to predict post-treatment values of the outcome variable, undermining the original
idea of exploiting economic predictors with power for explaining the outcome of interest. Actually, one
obtains the same synthetic control as if one uses economically meaningless economic outcome predictors
- or even no economic outcome predictors at all. Moreover, we exemplify that estimation results may
change considerably when, in order to avoid this pitfall, only a single pre-treatment measure of the
outcome is used as additional economic predictor.
141 Dynamic copula based multivariate discrete choice models
Hans Manner1 , Michael Eichler, Dennis Türk
Universität zu Köln, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
We propose a dynamic model for multivariate binary outcomes, which allows the latent variables driving
these observed outcomes to follow a vector autoregressive process. Furthermore the model is constructed
using a copula representation for the joint distribution of the resulting innovations. This has several
advantages over the standard multivariate probit model. First, it allows for nonlinear dependence between
the error terms. Second, the univariate link function can be chosen freely. Third, the computational
burden is greatly reduced making estimation feasible in higher dimensions and for large samples. Finally,
the model can easily be extended to allow for ordered outcomes and one may even model ordered and
binary outcomes jointly. Conditions, needed for the the estimated dependence parameter to lie inside the
boundary of the permissible parameter space are given and a solution for (small sample) cases in which
these conditions are not full filled is presented. Furthermore, the computation of marginal effects and
the choice of the copula for dimensions larger than two are treated. We present results from a simulation
study and provide two applications. First, we treat the problem of forecasting the probability of extreme
price (co-) occurrences, so called (co-) spikes, in Australian high frequency electricity markets, and
second, we jointly model recession probabilities for four major economies.
142 Modelling and Diagnostics of Spatially Autocorrelated Counts
123
15.-18. September, Hamburg
Statistische Woche 2015
Stephanie Glaser1 , Robert Jung
Universität Hohenheim, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
This paper proposes a spatial linear feedback model for the econometric modelling of spatial counts
which incorporates a global spatial correlation parameter. The model aims at supplying an easy to estimate and easy to interpret alternative for the empirical economist who is interested in studying firm
investment location decisions and beyond. In particular this approach offers an intuitive interpretation
of the spatial correlation parameter as the impact of neighboring observations on the conditional expectation which distinguishes it from recent models for spatially autocorrelated counts. In addition, it
overcomes the numerical difficulties associated with the full information maximum likelihood estimation
of the previously by Lambert, Brown, and Florax introduced spatial autoregressive (SAR)-Poisson model caused mainly by the need to invert a transformation of the n × n spatial weight matrix, where n
denotes the sample size by using a pseudo maximum likelihood approach. The estimation approach is
checked using a Monte Carlo study. In non-spatial count data regression the Poisson model is regularly
not able to deal with unobserved heterogeneity in the data. One way to overcome this is to allow for
a more flexible variance function as in the negative binomial (NB) regression model. We propose to
allow for such flexibility in spatial count data models as well and employ a negative binomial variant
of our proposed model specification. Finally, our paper also advocates the routine use of diagnostic
tools and model validation methods to assess the adequacy of a fitted model and to compare two or
more competing model specifications. For this purpose we propose i.a. a suitably adjusted variant of
the probability integral transform (PIT) and scoring rules. We illustrate the application of the proposed
model and methods with a US start-up births data set.
143 Normal Mixture variance states for structural identification of
financial market models
Sebastian Christoph Müller1
Universität Kiel, Germany, [email protected]
SECTION: Empirical Finance
In multivariate models the interacting dynamics of several endogeneous variables can be estimated and
projected to the future. When it comes to a structural perspective these models need to borrow from
economic theory. Identifying assumptions are imposed to reveal contemporaneous causalities, since the
reduced form model does not provide sufficient information. Historically, extra information is introduced
through restrictions on the instantaneous parameters, e.g., through a simple Cholesky decomposition,
from assumptions on the long-run effects of shocks or by restricting parameter signs based on apriori
knowledge or researchers judgement. Recent statistical alternatives make use of information from higherorder moments. The identification problem can be solved by exploiting Normal Mixture states in the
structural variances for an exact identification. Thus, additionally imposed restrictions become testable. A
Normal Mixture variance structural vector-autoregressive model (NMH-VAR) is employed to investigate
the contemporaneous causal transmissions of structural shocks between the real and financial economy,
124
Statistische Woche 2015
15.-18. September, Hamburg
the central bank and the brazilian Real/ US-Dollar FX market. Subsequently, variance decompositions
shet light on the relative importance of informational surprises from orthogonal sources.
144 True and Spurious Long Memory in Inflation Rates
Saskia Rinke1 , Marie Holzhausen, Christian Leschinski
Leibniz Universität Hannover, Germany, [email protected]
SECTION: Empirical Finance
The persistence of inflation is of major importance to central banks due to the fact that it determines
the costs of monetary policy. It is well established that inflation rates exhibit long memory. However,
there is an ongoing debate which degree of persistence can be attributed to true long memory and how
much is only spurious due to mean shifts. Therefore, we apply newly available methods to detect spurious
long memory and to estimate the memory parameter robustly under structural breaks. By combining
these estimates with breakpoint estimation algorithms which are valid under long memory, we are able to
consistently estimate the number and location of structural breaks. We apply these methods to monthly
inflation rates of the G7 countries. Our results show that at least part of the memory in all series is
spurious. However, breaks are only found for a few countries. This leads to the conclusion that inflation
is more likely described by smooth trends.
145 Risks and Opportunities of Social Trading: Econometric Analysis of
Virtual Trades and Returns
Alexander Jonen1
Helmut-Schmidt-Universität Hamburg, Germany, [email protected]
SECTION: Empirical Finance
Social trading is an innovative web 2.0 based form of unregulated investment consultancy as well as
a kind of asset management service for private investors. Substantial features of this steadily growing
investment style are a low level of qualification requirements for new traders, vast information transparency concerning executed trading strategies and the possibility for private investors to follow these
strategies and invest in them.
In the course of our research, we begin by analyzing in how far income returns of exchange-listed
social trading participation certificates (so-called wikifolios) exceed income returns of conventional types
of investment.
In a second step, we use a unique data set of virtual wikifolio trades and apply econometric methods
to analyze in how far collective intelligence can be detected in the cross section. Moreover, we examine
the risk-taking behavior as well as money management and forecasting ability of social traders.
Concluding, we combine our empirical findings with the behavioral finance theory and introduce
statistical metrics in order to predict sustainable trading success based on historical trades. Our results
125
15.-18. September, Hamburg
Statistische Woche 2015
can be used to enrich the information content offered to investors, to discriminate long-term successful
social traders from those that are not.
146 Tests for Location: An Analysis of Finite Sample Performance
Vasyl Golosnoy1 , Markus Pape
Ruhr-Universität Bochum, Germany, [email protected]
SECTION: Empirical Finance
A statistical justification of technical trading rules presumes that the investors are able to detect changes
in mean returns of risky assets. In particular, a change of the local central tendency appears to be of
most interest for short-run investment decisions.
In our setting we assume that there is a (locally) constant mean in the pre-sample and there is a
possibility of a mean change at some time point within the sample window. It is of interest to investigate
the ability to detect such mean changes by testing the validity of the null hypothesis (the sample window
mean is equal to the pre-sample mean) at the end of the sample window. For this purpose we compare
the performance of two commonly used testing procedures, namely the usual mean difference test with
possibly unequal variances (Welch test) as well as the Wilcoxon rank sum test.
Our major intention is to explore how these tests perform in finite samples for different distributions
characterizing observations from both pre-sample and sample windows. The obtained Monte Carlo
evidence indicates that the power of the mean difference test decreases compared to that of the rank
test in presence of fat tails, leptokurtosis as well as asymmetry in the underlying distributions. Conversely,
changes occurring towards the end of the sample window are more likely to be detected by the mean
difference test, which is hence the more powerful test for such cases. The empirical evidence is obtained
by applying some technical trading rules based on mean differences to the Dow Jones Industrial Index
Data.
147 Tensor regression models for multilayer networks with missing
values
Julian Körber1 , Aßmann Christian
Otto-Friedrich Universität Bamberg, Germany, [email protected]
SECTION: Statistical Analysis of Network Data
Missing values in the analysis of social network data are a common problem occurring either as missing
tie information or as missing nodal covariates. Missing values in multiple networks can additionally bias
the estimation of between-layer interdependence. Ignoring missing tie information and analysing only
complete cases redefines the boundary of a network and may lead to substantial loss of nodes. Ignoring
missing values in covariates increases the bias of model estimation if both nodal and tie information
shall be analysed. Observed covariates can be used to estimate missing tie information and vice versa
with stochastic imputation models in a Bayesian framework using MCMC algorithms. There are data
augmenting algorithms for the estimation of exponential random graph models (ERGM) with partly
observed tie variables and covariates. While the ERGM is well established for single or bipartite networks
126
Statistische Woche 2015
15.-18. September, Hamburg
it has deficits in the estimation of multiple networks with missing values. Also, ERGMs tend to suffer from
non-convergence of estimating algorithms. The multilinear tensor regression model (MTRM) generalizes
a latent variable approach for single network matrices to multilayer network tensors. A latent normal
variable approach is able to handle any type of tie variable via different link functions. The data tensor
of a multilayer network is explained by a Kronecker-structured regression parameter and a separable
covariance model making use of the Tucker product. The covariance structure of the MTRM can be used
to model interdependencies between network layers. It is possible to add a data augmenting imputation
step into the MTRM Gibbs sampler, estimating network parameters conditionally on completed tie
information and covariates. The performance of the ERGM and the MTRM shall be compared in the
estimation of missing network information and goodness of fit.
148 Stable Exponential Random Graph Models with non-parametric
components for large networks
Stephanie Thiemichen1 , Göran Kauermann
LMU München, Germany, [email protected]
SECTION: Statistical Analysis of Network Data
Exponential Random Graph Models (ERGM) are a common tool in network data analysis. The models
describe the distribution of a network graph with an exponential family, where the statistics are counts
of edges, k stars, or triangles, for instance. Though the models mirror the welcome properties of exponential families, their behaviour is quite unstable and the parameters space resulting in suitable network
graphs is peculiarly shaped. In practice this results in either fully connected or fully unconnected networks and adds to complications with respect to numerical methods for fitting ERGMs. To compensate
for this deficit exponentially weighted canonical statistics have been proposed in the literature (see e.g.,
Snijders et al., 2006, Sociological Methodology, or Hunter & Handcock, 2006, J. o. Computational and
Graphical Stats.). Another problem arises when analysing large networks where the available MCMC
based routines become infeasible. We propose to use a subsampling approach based on the conditional
independence structure of a network (following Koskinen and Daragowne, 2013). Furthermore, we add
non-linear statistics using a smoothing approach. The resulting subsample can be analysed using standard statistical software packages for Generalized Linear Models (GLM) or Generalized Additive Models
(GAM), respectively.
149 Statistical network analysis of the international arms trade
Christoph Jansen1
Institut für Statistik, LMU München, Germany, [email protected]
SECTION: Statistical Analysis of Network Data
We investigate the legal international arms trade in the time period from 1950 to 2012. Our analysis
is based on data anually collected by the Stockholm International Peace Research Institute (SIPRI).
Particularly, the intensity of trade between nations is measured by means of SIPRI’s trend indicator
127
15.-18. September, Hamburg
Statistische Woche 2015
value (TIV).
However, due to the relational structure of the data (for instance the trading behaviour of nation A
might be highly dependent of the one of nation B, if the two are at war), statistical standard procedures
(such as logistic regression analysis) are hardly applicable, since these often require to make untenable
independency assumptions. Here, statistical network analysis provides a powerful theoretical framework:
By interpreting the data (for each year) as one single observation of a (matrix-valued) random variable,
the dependency structure can explicitly be taken into account.
Firstly, we will carry out a descriptive analysis of the data. Here, apart from studying the common
network characteristics (such as density, closeness, degree-distribution), we will focus on identifying
structures that remain stable within the whole period under consideration. These structures then serve
as a basis for the inferential analysis. Subsequently, we use Exponential Random Graph Models (ERGMs)
for an inferential analysis of the data. ERGMs allow to model the international arms trade network (for
any year) directly on the basis of the stable characteristics identified within the descriptive analysis. We
briefly describe the (MCMC-driven) estimation of the model paramters and discuss different ways of
interpreting them. Finally, we compare the paramter estimates for the different years in order to learn
about the dynamics of international arms trade.
150 Detecting Schooling Markets in the Federal State of Hamburg
Sebastian Leist1 , Marcus Pietsch
Institut für Bildungsmonitoring und Qualitätsentwicklung (IfBQ), Hamburg, Germany, [email protected]
SECTION: Statistical Analysis of Network Data
This article deals with the question of how it is possible to structure a large-scale schooling system
by examining the relationships between schools. It aims at revealing spatial networks of schools within
which students are being distributed (so-called schooling markets). Previous approaches define schooling
markets a priori either according to administrative boundaries, or based on areas of responsibility of
municipal authorities, or they group schools based on the location of schools, taking into account travel
costs (time, distance) between these locations. The assumptions of these approaches are problematic
and may cause incorrect estimates. By contrast, stochastic network approaches for the detection of
groups offer an economic way of attributing schools to similar groups according to their relationship
among each other. The advantages of this method lie first of all in the definition of groups based on
an endogenous attribute of empirical data, and secondly, in the latent way of modeling which renders
measurement errors irrelevant. The stochastic networks in this article were modeled with the R-Package
“latentnet”. The network of relationships between the schools in Hamburg is based on flows of students
moving from primary to secondary schools on the territory of the federal state of Hamburg previous to
the start of school year 2014/15. Applying this stochastic network approach and using network data of
students moving from primary to secondary schools, it will be demonstrated that it is possible to detect
regional and, in a subsequent step of analysis, small-scale local schooling markets. After having detected
schooling markets further analysis is possible, such as:
• Measuring the competition between schools on local markets based on indicators
• Description of social segregation among students
• Exploration of individual functional mechanisms of those regional and local schooling markets
128
Statistische Woche 2015
15.-18. September, Hamburg
151 Ergebnisse des ESSnet Data Collection in Social Surveys Using
”
Multiple Modes“ (DCSS) im Kontext der Modernisierung der
amtlichen Haushaltsstatistiken in Deutschland
Thomas Riede1
Statistisches Bundesamt, Germany, [email protected]
SECTION: Methodology of Statistical Surveys
Die amtlichen Haushaltsstatistiken in Europa sehen sich mit einer Reihe von sozialen, politischen und
technologischen Herausforderungen konfrontiert. Eine sich daraus ergebende methodische Entwicklung
ist die zunehmende Verwendung von Mixed-Mode-Erhebungsdesigns, in denen verstärkt Onlinefragebogen eingesetzt werden sollen. Vor diesem Hintergrund hat Eurostat im Jahr 2012 ein zweijähriges
europäisches Kooperationsprojekt ins Leben gerufen. In dem ESSnet-Projekt “Data Collection in Social
Surveys Using Multiple Modes“ (kurz: ESSnet DCSS) haben unter der Leitung Deutschlands fünf Mitgliedsstaaten des Europäischen Statistischen Systems (ESS) methodische Vorarbeiten für die Gestaltung
von Erhebungen mit mehrere Modes geleistet. Schwerpunkt des ESSnets war daher die Gestaltung von
Onlinefragebogen für die amtliche Erhebungen einerseits und andererseits wurde diskutiert, welche organisatorischen, methodischen und qualitativen Konsequenzen sich durch den Einsatz unterschiedlicher
Modes ergeben. Vor dem Hintergrund der aktuellen Modernisierungspläne der amtlichen Haushaltsstatistiken in Deutschland stellt der Vortrag ausgewählte Ergebnisse des Projekts vor und zeigt kommende
Herausforderungen auf.
152 Kohärente Schätzungen auf Personen- und Haushaltslevel
Anne Konrad1 , Jan Pablo Burgard, Ralf Münnich
Universität Trier, Germany, [email protected]
SECTION: Methodology of Statistical Surveys
In Haushaltssurveys werden in der Regel die Haushalte als Cluster gezogen, d.h. auf der ersten Stufe
werden die Haushalte gezogen, auf einer zweiten Stufe alle Haushaltsmitglieder. Somit können Fragestellungen bezüglich Personen und Haushalten beantwortet werden. Im Allgemeinen sind für die Gewichtung
zwei Strategien denkbar: zwei separat durchgeführte Gewichtungen sowie eine sogenannte integrierte Gewichtung bei der alle Personen in einem Haushalt sowie der Haushalt selbst das gleiche Gewicht erhalten.
Nachteil ersterer Strategie ist, dass keine kohärenten Schätzergebnisse resultieren, d.h. beispielsweise Totalwertschätzungen des Einkommens basierend auf Personen- bzw. Haushaltsebene sind nicht äquivalent.
Hierbei können die integrierten Gewichte entweder durch Kalibrierung auf Personenebene berechnet
werden, indem die individuellen Hilfsmerkmale durch den Haushaltsdurchschnitt ersetzt werden. Oder
die Kalibrierung geschieht auf Haushaltsebene, wobei die Personenmerkmale pro Haushalt aggregiert
werden. Letztere Vorgehensweise empfiehlt die EU in den methodischen Richtlinien für die EU-SILC
Befragung.
129
15.-18. September, Hamburg
Statistische Woche 2015
Die Restriktion einheitlicher Gewichte innerhalb eines Haushaltes ist jedoch unter Umständen mit
einem Informationsverlust verbunden. Dieser Beitrag untersucht mögliche Effekte dieser Informationsverdichtung auf die Schätzergebnisse. In einem zweiten Schritt wird basierend auf den zuvor gewonnenen Erkenntnissen eine alternative Gewichtungsstrategie vorgeschlagen, welche die vorhandenen Informationen
sowohl auf Haushalts- als auch Personenebene ausnutzt und dennoch konsistente Schätzungen ohne die
Restriktion einheitlicher Gewichte ermöglicht. Dabei werden die Kalibrierungen zunächst auf Personenund Haushaltsebene durchgeführt, jedoch unter Einbindung geschätzter Totalwerte für gemeinsame Variablen. Für die Kalibrierung auf Personenebene ist darüber hinaus der Clustereffekt einzubinden, welcher
entsteht, da alle Haushaltsmitglieder als Einheit erhoben werden. Grundlage der Untersuchungen stellt
eine auf einem synthetischen aber realitätsnahen Datensatz basierende Simulationsstudie dar. Hierbei
werden alle vorgestellten Verfahren auf Verzerrungen und Effizienz verglichen. Die Forschungsarbeit findet im Rahmen des Forschungsprojektes Research Innovation for Official and Survey Statistics (RIFOSS)
statt, das vom statistischen Bundesamt finanziert wird.
153 Zur Kombination von Optimierung und Balancierung in
geschichteten Zufallsstichproben
Martin Rupp1 , Ralf Münnich
Universität Trier, Germany, [email protected]
SECTION: Methodology of Statistical Surveys
Bei der Optimierung von Stichprobendesigns von geschichteten Zufallsstichproben müssen heutzutage meist mehrere Variablen berücksichtigt werden. Gründe dafür sind unter anderem gestiegene
Genauigkeits- und Effizienzanforderungen sowie Kostenrestriktionen der amtlichen Statistik. Zur Entwicklung eines optimalen Stichprobendesigns wird gerne eine optimale Allokation durchgeführt, wobei
der Stichprobenumfang so auf die Schichten aufgeteilt wird, dass die Varianz eines geeigneten Schätzers
minimiert wird. Optimiert man dabei nach mehr als einer Variablen, so spricht man von multivariater
Allokation, bei der aufgrund der gleichzeitigen Betrachtung mehrerer Variablen die Entstehung von Zielkonflikten unumgänglich ist. Vielfach müssen auch gewisse Randverteilungen berücksichtigt werden.
Das Ziel des vorliegenden Beitrages ist die Entwicklung von multivariaten optimalen Allokationen unter
Berücksichtigung von Verteilungsnebenbedingungen. Zur Umsetzung dessen wird das Balanced Sampling vorgeschlagen. Im Unterschied zur Allokation wird dabei unter Verwendung von Hilfsinformationen
eine Balancierung der Stichproben erreicht. In diesem Beitrag werden die Vereinbarkeit der Methoden der
multivariaten Allokation und des Balanced Sampling diskutiert, Kombinationsmöglichkeiten vorgestellt
und Kompromisse zwischen Allokation und Balancierung erläutert. Die Intention ist das simultane Ausnutzen von Balancierungs- und Optimierungsgedanken bei der multivariaten Allokation, um in der Praxis
auftretende Probleme, etwa von geringen Zellbesetzungen oder gravierenden Disproportionalitäten, zu
kontrollieren.
Neben einer umfangreichen Diskussion werden anhand einer Simulationsstudie Vor- und Nachteile der
betrachteten Methoden demonstriert und an einem konkreten Beispiel der amtlichen Statistik vorgeführt.
Die Forschungsarbeiten finden im Rahmen des Forschungsprojektes Research Innovation for Official and
Survey Statistics (RIFOSS) statt, das vom statistischen Bundesamt finanziert wird.
130
Statistische Woche 2015
15.-18. September, Hamburg
154 Zweistufige Auswahl und Analyse Titel der Session
Siegfried Gabler1
Gesis, Germany, [email protected]
SECTION: Methodology of Statistical Surveys
Um den Designeffekt bei komplexen Auswahlen zu schätzen, ist es unter anderem nötig, die Varianz
der interessierenden y-Werte zu schätzen. Häufig wird dazu einfach die Stichprobenvarianz genommen,
insbesondere, wenn die Inklusionswahrscheinlichkeiten für die Einheiten alle gleich sind. In der Praxis
werden häufig zweistufige Auswahlverfahren verwendet. In der ersten Stufe werden Gemeinden, in der
zweiten Personen ausgewählt. Die Gemeinden werden dabei proportional zu ihrer Einwohnerzahl gezogen.
Bei solchen komplexen Designs ist die Varianz des Schätzers nicht immer einfach zu schätzen außer,
wenn auf der ersten Stufe mit Zurücklegen ausgewählt wird. Dann vereinfacht sich die Formel für
die Varianzschätzung. Auf der zweiten Stufe werden die Sekundäreinheiten durch uneingeschränkte
Zufallsauswahl ausgewählt. Im Folgenden untersuchen wir diesen Fall genauer und überprüfen, wie die
Statistikpakete SPSS, Stata und R die Designeffekte schätzen. Als Anwendungsbeispiel dienen einfache
Beispiele und der ALLBUS 2010.
155 Joint modelling of Anaemia and Malaria in children under five in
Nigeria
Samson Adebayo, Ezra Gayawan, Christian Heumann, Christian Seiler1
ifo Institut-Leibniz Institut für Wirtschaftsforschung, Germany, [email protected]
SECTION: Statistics in Science and Technology
In this study, we adopt geoadditive latent variable model (geoLVM) for binary and ordinal indicators
to scrutinize the influence of variables of different types on morbidity from malaria and anaemia among
young children in Nigeria. Latent variable models allow for the analysis of multidimensional response
variables in such a manner that reveal the indicator’s underlying relationship that are caused by the
latent variables. The structural model allows for latent dependent variables and explanatory variables to
be examined. In this case study, the structural model was extended to a semi-parametric geoadditive
regression that allows for modelling of linear and nonlinear covariate effects while accounting for locationspecific contextual factors through geographical effects.
156 Sampling inspection by variables under Weibull distribution and
Type I censoring
Peter-Th. Wilrich1
Freie Universität Berlin, Germany, [email protected]
SECTION: Statistics in Science and Technology
131
15.-18. September, Hamburg
Statistische Woche 2015
The lifetime (time to failure) of a product is modelled as Weibull distributed (with unknown parameters);
in this case the logarithms of the lifetimes are Gumbel distributed. Lots of items shall be accepted if
their fraction p of nonconforming items (items the lifetime of which is smaller than a lower specification
limit tL ) is not larger than a specified acceptable quality limit. The acceptance decision is based on the
r ≤ n observed lifetimes of a sample of size n which is put under test until a defined censoring time tC
is reached (Type I censoring). A lot is accepted if r = 0 or r = 1 or if the test statistic y = µ̂ − kσ̂ is
not smaller than the logarithm of the specification limit, xL = log(tL ), where k is an accepance factor
and µ̂ and σ̂ are the Maximum Likelihood estimates of the parameters of the Gumbel distribution. The
parameters of the sampling plan (acceptance factor k, sample size n and censoring time tC ) are derived
so that lots with p ≤ p1 shall be accepted with probability not smaller than 1 − α. On the other hand,
lots with fractions nonconforming larger than a specified value p2 shall be accepted with probability not
larger than β. n and tC are not obtained separately but as a function that relates the sample size n to
the censoring time tC . Of course, n decreases if the censoring time tC is increased. For tC → ∞ the
smallest sample size, i.e. that of the uncensored sample, is obtained. Unfortunately, the parameters of
the sampling plan do not only depend on the two specified points of the OC, P1 (p1 , 1−α) and P2 (p2 , β),
but directly on the parameters τ and δ of the underlying Weibull distribution or equivalently, on the
parameters µ = log(τ ) and σ = 1/δ of the corresponding Gumbel distribution. Since these parameters
are unknown we assume that the hazard rate of the underlying Weibull distribution is nondecreasing
(δ ≥ 1). For the design of the sampling plan we use the limiting case δ = 1 or σ = 1/δ = 1. A simulation
study shows that the OC of the sampling plan is almost independent of σ if the censoring time tC is
not smaller than the specification limit tL .
157 AR modification of ensemble forecasts for temperature
Jürgen Groß1 , Annette Möller
Otto-von-Guericke-Universität Magdeburg, Germany, [email protected]
SECTION: Statistics in Science and Technology
Given a numerical weather prediction (NWP) ensemble of daily one-step ahead forecasts for temperature,
an autoregressive (AR) process is fitted to the forecast error series of each individual ensemble member.
From this an AR modified one-step ahead forecast ensemble is generated, based on the actual nonmodified forecast and past observations and forecasts (training period). For each day from the verification
period, the AR coefficients are newly estimated and the training period is shifted accordingly (rolling
training period).
For data from the European Centre for Medium-Range Weather Forecasts (ECMWF) ensemble, a predictive distribution is estimated from the AR modified ensemble and the verifying observation. The
latter is combined with the predictive distribution derived from the well established local ensemble model output statistics (EMOS) method. This local AR-EMOS combination is shown to be well-calibrated,
yielding favorable results with respect to the continuous ranked probability score (CRPS) as well as the
Dawid-Sebastiani score (DSS). Moreover, the Diebold-Mariano test for equal predictive performance
indicates a meaningful improvement of local AR-EMOS over EMOS.
132
Statistische Woche 2015
15.-18. September, Hamburg
158 Forecasting limit exceedances for environmental data using copulas
Yarema Okhrin1 , Dominik Schneller
Universität Augsburg, Germany, [email protected]
SECTION: Statistics in Science and Technology
The aim of this paper is to propose a model to forecast probabilities for PM10 limit exceedances.
The “European directive 2008/50/EC” states a daily mean limit of 50µg/m3 as the value not to be
exceeded on more than 35 days per calendar year. We use intraday data for the year 2012 from 21
measuring stations located in Bavaria. The objective is to infer about the daily exceedances of the limit
using the information from the higher frequency data. The models contain daily and yearly seasonalities,
an autoregressive part to capture the strong time persistence, dummies for day of the week effects,
and a GARCH(1,1) term to model the conditional heteroscedasticity. The forecasts for the mean PM10
concentration and for the conditional volatility from both the daily and the half-hourly models are
incorporated into logistic regression models to generate probability forecasts. We correct the bias of the
logistic regression model rendered which arises due to rare true exeedances. The probability forecasts
from the daily and half-hourly models are combined using the model averaging methods.
159 Dynamic mixtures of factor analyzers in environmental research
Francesco Lagona1
University Roma Tre, Italy, [email protected]
SECTION: DStatG/ISG
I describe a new class of parsimonious models to perform time-varying clustering and dimensionality
reduction in a time-series setting. The problem of similarity search in time-series data is addressed by
specifying a hidden Markov model. Accordingly, clustering is not only based on similarities in the variable
space, but also on similarities occurring in a temporal neighborhood, by relaxing the assumption that
data points are mutually independent. Conditionally on each hidden state of the Markov chain, local
dimensionality reduction is performed by imposing constraints on model parameters in a factor model
framework. A family of eight different models is obtained. For the maximum likelihood estimation of the
model parameters, an Alternating Expected Conditional Maximization (AECM) algorithm is outlined.
These methods are illustrated by jointly analysing pollutant concentrations and atmospheric variables
recorded at a monitoring station in Italy. The analysis focuses on variables evolution over time, the
presence of different environmental regimes and (time-varying) relationships between variables.
160 Spatio-temporal statistical analysis of the carbon budget of the
terrestrial ecosystem
Patrick Vetter1 , Wolfgang Schmid, Reimund Schwarze
Europa-Universität Viadrina, Frankfurt (Oder)
133
15.-18. September, Hamburg
Statistische Woche 2015
SECTION: DStatG/ISG
The Net Ecosystem Exchange describes the net carbon dioxide flux between an ecosystem and the
atmosphere and is a key quantity in climate change studies and in political negotiations. This paper
provides a spatio-temporal statistical framework, which is able to infer the Net Ecosystem Exchange from
remotely-sensed carbon dioxide ground concentrations together with data on the Normalized Difference
Vegetation Index, the Gross Primary Production and the Land cover classification. The model is based
on spatial and temporal latent random effects, that act as space-time varying coefficients, which allows
for a flexible modelling of the spatio-temporal auto and cross-correlation structure. The intra- and interannual variations of the Net Ecosystem Exchange are evaluated and dynamic maps are provided on a
nearly global grid and in intervals of 16 days.
161 Does Self-Employment Really Raise Job Satisfaction? Adaptation
and Anticipation Effects on Self-Employment and General Job Changes
Dominik Hanglberger, Joachim Merz1
Leuphana Universität Lüneburg, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
Empirical analyses using cross-sectional and panel data found significantly higher levels of job satisfaction for the self-employed than for employees. We argue that by neglecting anticipation and adaptation
effects estimates in previous studies might be misleading. To test this, we specify models accounting for
anticipation and adaptation to self-employment and general job changes. In contrast to recent literature
we find no specific long-term effect of self-employment on job satisfaction. Accounting for anticipation
and adaptation to job changes in general, which includes changes between employee jobs, reduces the
effect of self-employment on job satisfaction by two-thirds. When controlling for anticipation and adaptation to job changes, we find a positive anticipation effect of self-employment and a positive effect
of self-employment on job satisfaction in the first years of self-employment. After three years, adaptation eliminates the higher satisfaction of being self-employed. According to our results, previous studies
overestimate the positive long-term effects of self-employment on job satisfaction.
162 Markovkette als Fertilitätsmodell: Zum Fehlen des Alters der
Mutter bei der ersten Geburt
Benjamin Strohner1 , Rafael Weißbach
Universität Rostock, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
Ziele:
Die Geburt stellt ein demografisches Ereignis dar. Erkenntnisse über die Ursachen der Fertilität
können mithilfe der Ereigniszeitanalyse (ETA) erlangt werden. Dazu gibt es eine reiche statistische und
ökonomische Literatur zum Beispiel Heckman/Willis (1976) und Heckman/Walker (1989). In diesem
134
Statistische Woche 2015
15.-18. September, Hamburg
Aufsatz soll die altersspezifische Struktur der Fertilität modelliert und aus Querschnittsdaten geschätzt
werden, um Unterschiede zwischen erster und zweiter Geburt zu bestimmen.
Likelihoodanalyse:
Zur Abbildung des Fertilitätsgeschehens wird die Kinderzahl einer Frau (kein Kind, ein Kind, zwei
Kinder) als zustandsdiskrete altersspezifische, also inhomogene, Markovkette modelliert. Die bedingten
Übergangswahrscheinlichkeiten (Schwangerschaftswahrscheinlichkeiten) zwischen den Zuständen folgen
im Alter einer (diskretisierten) asymmetrischen Dreiecksgestalt und können sich nach der Anzahl der
vorhandenen Kinder unterscheiden. Die insgesamt entstehenden vier Parameter sollen mittels MaximumLikelihood geschätzt werden. Daten sind der Geburtendatensatz aus dem Doppeljahr 2009/2010 für
Mecklenburg-Vorpommern kombiniert mit dem entsprechenden Bevölkerungsbestand.
EM-Algorithmus:
Die Gliederung des Bestandes der Frauen nach der Anzahl vorhandener Kinder ist allerdings unbekannt. Daher wird ein EM-Algorithmus genutzt, der diese Gliederung aus den Parameterschätzergebnissen
iterativ bestimmt. Die Standardfehler werden mit einer dementsprechenden Methode von Oakes (1999)
bestimmt.
Ergebnisse:
Der Vergleich der Parameter-Paare für erste und zweite Geburten sagt, dass es eine mit der vorhandenen Kinderzahl steigende Schwangerschaftswahrscheinlichkeit und ein mit der vorhandenen Kinderzahl
sinkenden Altersschwerpunkt der Schwangerschaftswahrscheinlichkeit gibt.
Diskussion:
Der EM-Algorithmus stellt sich als nützlich bei der Verweildaueranalyse geschätzt aus Querschnittsdaten heraus, insbesondere weil die Loglikelihoodfunktion linear in der nicht bekannten Anzahl der
Frauen mit einer bestimmten Anzahl vorhandener Kinder ist. Eine grundsätzliche Beschänkung der Analyse stellt die Stationaritätsnanahme dar. Die genutzten Vereinfachungen (keine Mehrlingsgeburten, nur
Lebendgeburten, Betrachtung nur bis zum zweiten Kind und keine Regressoren) schränken das Konzept
nicht ein, da sie in Erweiterungen leicht zu berücksichtigen sind.
163 Unemployment Dynamics in the US and Euro Area: Do
Uncertainty Shocks Matter?
Katharina Glass1 , Aleksei Netšunajev
Universität Hamburg, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
In this paper we investigate transmission and spillovers of local and foreign economic policy uncertainty
shocks to unemployment in the two largest economic regions in the world - the United States (US) and
the Euro area (EA). For this purpose we deploy Bayesian Markov-switching structural vector autoregressive (MS-SVAR) model identified via heteroskedasticity. In addition to local effects we find foreign
uncertainty shocks to influence the Euro area but not the US unemployment. We document weaker
spillovers of both local and foreign uncertainty shocks in the more volatile times.
164 Recent developments in calibration methods for survey statistics
135
15.-18. September, Hamburg
Statistische Woche 2015
Risto Lehtonen1
, Finland, [email protected]
SECTION: Methodology of Statistical Surveys
In the presentation, calibration methods are discussed for the estimation of statistics for population
subgroups or domains (small or large). The methods include model-free or linear calibration and model
calibration, and certain new model calibration methods including semi-direct and semi-indirect model
calibration. I will introduce a new variant of model calibration called ”hybrid” calibration. This method
aims at combining some favorable properties of model calibration (accuracy improvement; coverage
of models from the family of generalized linear mixed models) and model-free calibration (coherence
property of estimates with published statistics). Statistical properties (design bias and accuracy) of the
methods are assessed by design-based simulation experiments using artificially generated population and
real unit-level register data maintained by Statistics Finland. Applicability of the methods for practical
purposes is discussed.
165 Applications of Mixed Models Methodology for Small Area
Estimation in Mexico
Timo Schmid1 , Nikos Tzavidis, Natalia Rojas-Perilla
Freie Universität Berlin, Germany, [email protected]
SECTION: Methodology of Statistical Surveys
The point of departure for this work is the request by the Government of Mexico for methodologies
that provide reliable estimates of a wide range of deprivation indicators for every municipality in the
country. The presentation will start by describing the specificities of this project and by defining the set
of indicators whose publication is requested by law in Mexico.
Income-based indicators include the incidence of poverty and the poverty gap, inequality indicators
such as the Gini coefficient and quantiles of the income distribution. Moreover, estimates of multidimensional deprivation are also requested. Multidimensional deprivation is jointly defined by income
deprivation and deprivation in multiple social dimensions for example, health, education and social security. It is clear that for adequately responding to the breadth of this request, researchers in small area
estimation must utilise a range of available and newly developed methodologies.
For estimating income-based indicators we consider the use of methodologies based on mixed models.
In addition, we test a methodology, currently under development, that aims at explicitly estimating the
distribution function of the outcome. This methodology is based on the use of a quantile nested error
regression (mixed) model under the working assumption of an Asymmetric Laplace Distribution for the
unit level error. One approach for estimating the measure of multidimensional deprivation Mexico is
interested in is to consider this as a multinomial outcome. Provided that there is sufficient time, we will
present results from using generalised linear mixed models methodology for this purpose.
The alternative methodologies will be compared by using real survey and Census data. Some diagnostic measures for externally evaluating the derived estimates will be considered.
136
Statistische Woche 2015
15.-18. September, Hamburg
166 Estimation within the New Integrated System of Household
Surveys in Germany
Saeideh Kamgar1 , Florian Meinfelder, Ralf Münnich
Allameh Tabataba’i University of IRAN, Germany, [email protected]
SECTION: Methodology of Statistical Surveys
The new survey design of the German household surveys will be based on the Microcensus (MZ)
and conducted as an integrated household survey. Some additional surveys, like the LFS, SILC, and
others will be drawn as subsamples. In order to reduce the response burden, the core set of questions from
the MZ will be limited. Assuming that some questions from the core questionnaire may be substituted,
the design can be considered as a similar approach to the split questionnaire design. However, the
strategy to adopt split questionnaire design in this new survey is the important issue in this context.
Specifically, the main question is how to identify items of MZ/LFS and SILC surveys to be included in
core part in order to improve the precision of estimators based on the subsamples data. In this study,
our focus is on investigation methods to identify an adequate (optimal) design of the core questionnaire
assigned to the common MZ random sample in connection to the LFS and SILC subsamples. The aim
is to identify a small set of questions for the core questionnaire, which furnishes efficient estimates on
global and local level. The estimators of interest cover classical small area estimators as well as poverty
measures and classical table estimates. The methodology will be examined applying a Monte Carlo study
on a synthetic but realistic population. The research is conducted within the research project Research
Innovation for Official and Survey Statistics (RIFOSS), which is financially supported by the German
Federal Statistical Office. The first author is supported by Allameh Tabataba’i University of IRAN, and
Trier University.
167 Some Extensions of Regression Based Cointegration Analysis
Martin Wagner1
Technische Universität Dortmund, Germany, [email protected]
SECTION: Statistical Theory and Methodology
The analysis of cointegrating relationships in a regression framework is typically carried out using modified least squares estimators that employ corrections for the effects of endogeneity and error serial
correlation in order to obtain limiting distributions that allow for asymptotic standard inference. Several
such estimation procedures are available in the literature. In the talk we discuss extensions of such approaches along two dimensions. On the one hand we discuss the applicability of modified least squares
estimators in cointegrating regressions that are linear in parameters, but nonlinear in I(1) variables. Typical examples of such relationships are (environmental) Kuznets curves or translog cost or production
functions. Especially the latter poses new challenges for estimation and inference using when trying to
use e.g. the so-called fully modified OLS estimation principle. On the other hand we discuss estimation
when it is not the functional form that is allowed to be more general, but the dynamic properties of the
variables. In particular we discuss cointegration analysis based not on summed up i.e. integrated sta-
137
15.-18. September, Hamburg
Statistische Woche 2015
tionary but integrated locally stationary processes. We consider localized fully modified OLS estimation
for this case. The talk gives a survey of research undertaken in Dortmund as well as in cooperation with
Robert M. de Jong, Mathias Vetter and Timothy J. Vogelsang.
168 Testing for smooth transition cointegration with integrated or
trending transition variable
Oliver Stypka1 , Martin Wagner
Technische Universität Dortmund, Germany, [email protected]
SECTION: Statistical Theory and Methodology
A test is developed for the null hypothesis of linear cointegration against the alternative of smooth
transition cointegration when the transition variable is either an integrated or deterministically trending
variable. The test statistics are based on suitably modified FM-OLS or IM-OLS parameter estimators
of the usual Taylor approximations to the smooth transition regression function. Note that if the Taylor
approximation can be considered to be the true transition function rather than an approximation, we
hereby provide consistent parameter estimators with a mean zero Gaussian mixture limiting distribution,
which may be of interest in itself. For the IM-OLS based test we also discuss fixed-b inference. The
properties of the tests are evaluated with a simulation study.
169 IM-OLS Estimation and Fixed-b Inference for Seasonally
Cointegrating Regressions
Rafael Kawka1 , Oliver Stypka, Martin Wagner
Technische Universität Dortmund, Germany, [email protected]
SECTION: Statistical Theory and Methodology
Many economic time series exhibit persistent seasonal patterns. One approach to model this phenomenon is given by models including seasonal unit roots and, if several time series are considered jointly,
seasonal cointegration. For quarterly time series, e.g., unit roots may be present at frequencies π/2
and π, in addition to the “standard unit root” at frequency zero. Gregoir (2010) has extended the
fully modified OLS estimator of Phillips and Hansen (1990) from the cointegrating regression to the
seasonally cointegrating regression case. In this paper, we have a similar agenda, in that we undertake
the corresponding extension for the IM-OLS estimator of Vogelsang and Wagner (2014). The benefit
of the IM-OLS estimator is that it forms the basis not only for asymptotic standard inference but also
allows for fixed-b inference. The paper furthermore proposes a test for seasonal cointegration at all unit
root frequencies. Note here that the cointegrating spaces in general differ across frequencies and have
to be estimated separately for each frequency. The theoretical analysis is complemented by a simulation
study comparing our approach with, of course, the FM-OLS approach of Gregoir (2010), but also other
well-known estimators and tests for seasonal cointegration.
References:
138
Statistische Woche 2015
15.-18. September, Hamburg
Gregoir, S., 2010. Fully Modified Estimation of Seasonally Cointegrated Processes. Econometric
Theory 26, 1491-1528.
Phillips, P.C.B., Hansen, B.E., 1990. Statistical inference in instrumental variables regression with
I(1) processes. Rev. Econom. Stud. 57, 99-125.
Vogelsang, T.J., Wagner, M., 2014. Integrated modified OLS estimation and fixed-b inference for
cointegrating regressions. Journal of Econometrics 178, 741-760.
170 Recent advances in multivariate time series with structural breaks
Idris Eckley1
Lancaster University, United Kingdom, [email protected]
SECTION: Time Series with Structural Breaks
In recent years there has been a surge of interest in the development of new, computationally efficient
methods for detecting structural breaks in time series. Much of this work has focussed on the analysis
of univariate time series, with contributions in this area having an impact in diverse disciplines: from
ocean engineering to music analysis. With the increased use of low-cost, multivariate sensors within
industrial processes, there is a growing need to be able to efficiently identify changes in structure within
multivariate time series. In moving to this more complex setting, the problem of detecting structural
breaks becomes more subtle. In this talk we will outline some recent developments in this area motivated
by some ongoing work with industrial collaborators.
171 Minimax optimal detection of structure for multivariate data
Jean-Marc Freyermuth1 , Florent Autin, Gerda Claeskens, Christophe Pouet
University of Cambridge, United Kingdom, [email protected]
SECTION: Time Series with Structural Breaks
We consider the problem of minimax hypothesis testing in the multivariate Gaussian White Noise
model. It is often reasonnable to assume that the underlying function has anisotropic smoothness and
some general ’structure’ (such as additivity). Using the relation between the Sobol decomposition of a
multivariate function and the geometry of the hyperbolic wavelet basis we construct test statistics for
detecting the presence of such structure. Hyperbolic wavelet bases have been proven useful to construct
powerful procedures for estimating functions with anisotropic smoothness Neumann (2000), Autin et
al. (2013) and Autin et al. (2014). In this talk we will emphasize that they furnish minimax optimal
(or near-optimal) testing procedures and we will illustrate their use in a time series application inspired
from von Sachs and Neumann (2000) for testing the second order stationarity of a time series.
This is a joint work with Florent Autin, Gerda Claeskens and Christophe Pouet.
172 A test for change in rank-correlation of multivariate time series
139
15.-18. September, Hamburg
Statistische Woche 2015
Alexander Dürre1 , Roland Fried, Daniel Vogel
TU Dortmund, Germany, [email protected]
SECTION: Time Series with Structural Breaks
We propose a non-parametric test for a change in the cross-sectional dependence structure of a multivariate time series. This cusum type test is based on Kendall’s Tau matrix which consist of pairwise
rank-correlation estimations. Kendall’s Tau is known to have a high efficiency under normal distributions
and good robustness properties. This makes it a suitable choice for processes which might be corrupted
or have heavy tails.
We derive the asymptotic distribution under the null hypothesis of no change under very mild assumptions without any moment conditions and allowing for short range dependence. Simulations compare
the power of the test against a competitor based on the empirical correlation matrix under different
scenarios. The test is illustrated at an energy market data example.
173 TESTING FOR A CHANGE IN THE CORRELATION OF TIME
SERIES
Christoph Heuser1
Universität zu Köln, Germany, [email protected]
SECTION: Time Series with Structural Breaks
In this talk, we consider a two dimensional stochastic process {(Xi , Yi )}i∈N satisfying some near-epoch
dependence and moment assumptions, and investigate its correlation coefficients {ρi }i∈N .
We present an a-posteriori and a sequential test procedure for detecting possible changes in the correlation coefficients. More precisely, we want to test the null hypothesis
H0 : ρ0 = ρi ,
for i = 1, . . . , n,
with some unknown ρ0 ∈ (0, 1), against
(1)
H1
: ρ1 = . . . = ρk? 6= ρk? +1 = . . . = ρn
in the a-posteriori case, or against
(2)
H1
: ρ1 = . . . = ρn = . . . = ρn+k? 6= ρn+k? +1 = . . .
in the sequential case, where k ? is an unknown change point.
The test statistics will be based on weighted CUSUM detectors and necessitate the estimation of the
long-run variance (LRV). In particular, we investigate two types of LRV estimators - a Bartlett-type
kernel estimator and a modification thereof wich takes the change into account. We analyze the limit
behavior of the LRV estimators and of the test statistics for n → ∞ under the null as well as under
both alternative hypotheses. Finally, we present some simulation results to illustrate the finite sample
behavior of our procedures.
140
Statistische Woche 2015
15.-18. September, Hamburg
174 Functional data depth: diversity of aims
Alicia Nieto-Reyes1 , Heather Battey
Universidad de Cantabria, Spain, [email protected]
SECTION: Data depth and classification
Measures of central tendency (depth functions) are an effective way of distilling the information contained in a probability law. Their ability to reveal diverse features such as spread, shape and symmetry has
made them particularly valuable for the construction of novel classification procedures. Since it is particularly difficult to decode the complex information encapsulated in distributions on function space, the
availability of a universally accepted depth function construction would mark a fundamental contribution
to both the theory and the future methodological development of statistics.
In recent years, much effort has been expended on attempts to construct depth functions for functional data. In many cases, these constructions fail to deliver the totality of properties essential for
defining a valid depth function according to our definition of depth. The properties that constitute our
definition not only provide a sophisticated extension of those defining the multivariate depth, recognising
topological features such as continuity, contiguity and smoothness, but also implicitly address several
common or inherent difficulties associated with functional data.
Amongst our six depth defining properties is one that tackles the delicate challenge of inherent partial
observability of functional data, providing a minimal guarantee on the performance of the empirical
depth beyond the idealised and practically infeasible case of full observability. As an incidental product
of the same property, our definition of functional depth automatically yields a robust estimator of the
population depth. Robustness is a property that is commonly ascribed to empirical depth functions
despite the absence of a formal guarantee from the multivariate definition, which was set forth in Zuo
and Serfling (2000) in the Annals of Statistics.
175 Distances between functional samples based on depth measures
Rosa E. Lillo1 , Ramón Flores, Juan Romo
Universidad Carlos III de Madrid, Spain, [email protected]
SECTION: Data depth and classification
In the context of functional data analysis, we construct four different statistics based on some wellknown depth measures, in order to measure distance between two samples. As an application, we propose
a new method to test the homogeneity of two samples of functions.A simulation study is performed to
check the efficiency of the tests when confronted with shape and magnitude perturbation. Finally, we
apply these tools to measure the homogeneity in some samples of real data.
176 Multivariate Functional Outlier Detection
Mia Hubert, Peter Rousseeuw, Pieter Segaert1
141
15.-18. September, Hamburg
Statistische Woche 2015
KU Leuven, Belgium, [email protected]
SECTION: Data depth and classification
Functional data are occurring more and more often in practice, and various statistical techniques have
been developed to analyze them. We consider multivariate functional data, where for each curve and
each time point a p-dimensional vector of measurements is observed. For functional data the study
of outlier detection has started only recently, and was mostly limited to univariate curves (p = 1).
In this talk we set up a taxonomy of functional outliers, and construct new numerical and graphical
techniques for the detection of outliers in multivariate functional data, with univariate curves included
as a special case. Our tools include statistical depth functions and distance measures derived from them.
The methods we study are affine invariant in p-dimensional space, and do not assume elliptical or any
other symmetry.
177 On the use of Radon-Nikodym derivatives and reproducing kernels
in functional classification
José R. Berrendero, Antonio Cuevas1 , José L. Torrecilla
Universidad Autónoma de Madrid, Spain, [email protected]
SECTION: Data depth and classification
The Hájek-Feldman dichotomy establishes that two Gaussian measures are either mutually absolutely
continuous with respect to each other (and hence there is a Radon-Nikodym (RN) density for each
measure with respect to the other one) or mutually singular. Unlike the case of finite dimensional Gaussian measures, there are non-trivial examples of both situations when dealing with Gaussian stochastic
processes. In this talk we will present:
(a) Explicit expressions for the optimal (Bayes) rule and the minimal classification error probability in
several relevant problems of supervised binary classification of mutually absolutely continuous Gaussian
processes. The results rely on some classical results in the theory of Reproducing Kernel Hilbert Spaces
(RKHS).
(b) A full theoretical interpretation, in terms of mutual singularity, for the “near perfect classification”
phenomenon, described by Delaigle and Hall (2012, JRSS). We show that the asymptotically optimal
rule proposed by these authors can be identified with the sequence of optimal rules for an approximating
sequence of classification problems in the absolutely continuous case.
(c) A new model-based method for variable selection in binary classification problems, which arises in
a very natural way from the explicit knowledge of the RN-derivatives and the underlying RKHS structure.
This new procedure is baked by an extensive simulation study.
(d) Some new ideas to define density-based notions of depth, defined in terms of RN derivatives are
briefly outlined.
The new results presented in this talk are included in joint unpublished works with José R. Berrendero and José L. Torrecilla.
142
Statistische Woche 2015
15.-18. September, Hamburg
178 Bias Corrections for Moment Estimators in Poisson INAR(1)
and INARCH(1) Processes
Christian Weiß1 , Sebastian Schweer
Helmut-Schmidt-Universität Hamburg, Germany, [email protected]
SECTION: Computational Statistics and Data Analysis
Moment estimators applied to time series data often lead to biased parameter estimates, which is
particularly problematic if the given time series is short. For continuous-valued time series, a lot
of work has been done in this area. One of the earliest accounts in these regards is the work by
Kendall (1954), who derived the asymptotic mean of the moment estimator for the autoregressive
parameter of a Gaussian AR(1) process.
For count data time series, there exist two equally popular integer-valued counterparts to the
AR(1) model, the so-called Poisson INAR(1) model on the one hand, and the Poisson INARCH(1)
model on the other hand. As of yet, the topic of bias correction has received only little attention in
this area. The presentation provides a comprehensive analysis of asymptotic distributions and bias
corrections of common moment estimators within the Poisson INAR(1) and INARCH(1) model.
The analysis is based on two central limit theorems for these models. For two common sets of
moment estimators in both models, the asymptotic distributions are derived, together with explicit
approximations for the bias and standard deviation of each of these estimators. Based on these
results, bias corrected variants of the estimators are suggested and applied within examples. A
simulation study highlights the finite-sample performance of the derived approximations for bias
and standard deviation.
References:
Bourguignon, M., Vasconcellos, K.L.P., 2014. Improved estimation for Poisson INAR(1) models.
Journal of Statistical Computation and Simulation, to appear.
Ferland, R., Latour, A., Oraichi, D., 2006. Integer-valued GARCH processes. Journal of Time
Series Analysis 27(6), 923-42.
Kendall, M.G., 1954. Note on bias in the estimation of autocorrelation. Biometrika 41(3-4),
403-404.
McKenzie, E., 1985. Some simple models for discrete variate time series. Water Resources Bulletin 21(4), 645-650.
Schweer, S., Weiß, C.H., 2014. Compound Poisson INAR(1) processes: stochastic properties and
testing for overdispersion. Computational Statistics and Data Analysis 77, 267-284.
Weiß, C.H., Schweer, S., 2015. Detecting overdispersion in INARCH(1) processes. Statistica
Neerlandica, to appear.
179 Self-exciting threshold binomial INARCH(1) process
Tobias Möller1
Helmut-Schmidt-Universität, Germany, [email protected]
143
15.-18. September, Hamburg
Statistische Woche 2015
SECTION: Computational Statistics and Data Analysis
Self-exciting threshold models as proposed by Tong and Lim (1980) have a long tradition in application and research. Recent developments transferred these models to integer-valued time series.
But only few models have been proposed and models for integer-valued time series with a finite range have not attracted much attention so far (Möller/Weiß (2015)). The presentation will introduce
the self-exciting threshold binomial INARCH(1) model, based on the binomial INARCH(1) model
by Weiß and Pollett (2014), to fill this gap. The process will be considered for stationary solution,
marginal properties (moments, shape, ...) as well as autocorrelation structure. A number of special
instances are discussed, also including a version for zero-inflated counts, where zeros occur in long
runs. Asymptotic properties as well as the finite sample behavior of estimators are considered. A
real data example about public drunkenness in Pittsburgh will show the applicability of the new
model.
References:
Möller, Tobias, and Christian H. Weiß. ”Threshold Models for Integer-Valued Time Series with
Infinite or Finite Range.” Stochastic Models, Statistics and Their Applications. Springer International Publishing, 2015. 327-334.
Monteiro, Magda, Manuel G. Scotto, and Isabel Pereira. ”Integer-valued self-exciting threshold
autoregressive processes.” Communications in Statistics-Theory and Methods 41.15 (2012): 27172737.
Tong, Howell, and Keng S. Lim. ”Threshold autoregression, limit cycles and cyclical data.”
Journal of the Royal Statistical Society. Series B (Methodological) (1980): 245-292.
Wang, Chao, et al. ”Self-excited threshold poisson autoregression.” Journal of the American
Statistical Association 109.506 (2014): 777-787.
Weiß, Christian H., and Philip K. Pollett. ”Binomial Autoregressive Processes with DensityDependent Thinning.” Journal of Time Series Analysis 35.2 (2014): 115-132.
180 Monitoring of count time series following generalized linear
models
Tobias Liboschik1 , Roland Fried, Konstantinos Fokianos
Technische Universität Dortmund, Germany, [email protected]
SECTION: Computational Statistics and Data Analysis
Real-time detection of structural changes in count time series is of interest in various applications.
For example in public health, surveillance of infectious diseases aims at recognizing outbreaks of
epidemics with only short time delays in order to take adequate action promptly. An appealing and
flexible class to model such data are count time series following generalized linear models, which
capture the typical characteristics of the data like serial dependence and seasonality. Methods for
fitting and analyzing such models are provided in our package tscount for the free statistical
software environment R (see http://tscount.r-forge.r-project.org).
Based on historical data, we design control charts which properly take into account the estimation uncertainty by applying a Monte Carlo simulation. Our study compares different statistics
for control charts, for example transformed observations, different types of residuals and some
144
Statistische Woche 2015
15.-18. September, Hamburg
likelihood-based measures. Considering situations where outliers might occur in the historical data,
we investigate how robust model fitting can ensure a more reliable performance of the control chart.
181 Likelihood based inference and prediction in spatio-temporal
panel count models for urban crimes
Jan Vogler1 , Roman Liesenfeld, Jean-Francois Richard
Universität Köln, Germany, [email protected]
SECTION: Computational Statistics and Data Analysis
We develop a panel data count model combined with a latent Gaussian spatio-temporal heterogenous state process to analyze monthly severe crimes at the census tract level in Pittsburgh,
Pennsylvania. Our data set combines Uniform Crime Reporting data with socio-economic data from
the 2000 census. The likelihood of the model is accurately estimated by adapting recently developed efficient importance sampling techniques applicable to high-dimensional spatial models with
sparse precision matrices. Our estimation results confirm socio-economic explanations for crime
and, foremost, the broken-windows hypothesis, whereby less severe crimes in a region is a leading
indicator for severe crimes. In addition to ML parameter estimates, we compute several other statistics of interest for law enforcement such as elasticities (idiosyncratic, total, short-term as well
as long-term) of severe crimes w.r.t. less severe crimes, one-month-ahead out-of-sample forecasts,
predictive cumulative ! distribution functions and validation test statistics based on these cdf’s.
182 Combining country-specific forecasts when forecasting Euro
area macroeconomic aggregates
Jing Zeng1
University of Konstanz, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
This paper investigates whether using different combination weights instead of the usual aggregation weights can help to provide more accurate forecasts. In forecasting aggregate variables, one
can forecast the disaggregate variables at first. Then all the disaggregate forecasts are combined.
The aggregation weights which are used to construct the aggregates are usually considered as combination weights. We examine the performance of alternative combination weights such as equal
weights, the least squares (LS) estimators of the weights, the combination method recently proposed by Hyndman et al. (2011) and the weights suggested by the shrinkage method used in Stock
and Watson (2004) to combine the disaggregate forecasts. The results indicate that some Euro area
aggregate variables like real GDP and GDP deflator can be forecasted more precisely by using the
LS weights and the weights estimated by the shrinkage method, because these methods are more
flexible in adapting to data in periods of financial crisis and can take large differences in inflation
rates of member countries into account. For forecasting the consumer price index and the long-term
145
15.-18. September, Hamburg
Statistische Woche 2015
interest rate, these weights can also provide more accurate forecasts in some cases. Furthermore,
combining only forecasts of the three largest European countries helps to improve the forecasting
performance, mainly because of their economic importance in the Euro area. The last finding is that
the persistence of the individual data seems to play an important role for the relative performance
of the combination.
183 A New Approach to Estimation of the
R&D-Innovation-Productivity Relationship
Christoffer Baum, Hans Lööf, Pardis Nabavi, Andreas Stephan1
Jönköping International Business School, Sweden, [email protected]
SECTION: Empirical Economics and Applied Economics
We evaluate a Generalized Structural Equation Model (GSEM) approach to the estimation of
the relationship between R&D, innovation and productivity that focuses on the potentially crucial
heterogeneity across technology levels and sectors. We consider the potential for closing the model
by allowing firm performance to feed back to the level of R&D activity. The model accounts for selectivity and handles endogeneity by including common, unobserved components into the equations
for different variables in different industrial sectors and the model allows for the same unobserved
component across equations. Employing a panel of Swedish firms observed in three consecutive
Community Innovation Surveys to estimate complex causal relationships with multiple pathways,
our maximum likelihood estimates show great consistency regarding the key variables across the
economy and a scattered pattern in their determinants.
184 The Measurement of Internet Availability and Quality in the
Context of the Discussion on Digital Divide
Jochen Lüdering1
Universtät Gießen, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
This paper discusses measures of Internet quality and availability used and usable in the analysis
of the so called digital divide. The usage of the share of Internet users in the population – widely
used in economic analysis – can easily be misleading in this debate. Based on this measure one
might get the idea that the digital divide is narrowing, as some industrialized countries are already
close to a share of 100
I argue that one should focus more on the study of Internet quality and quantity provided in a
demand and supply model of infrastructure. To this end, I introduce a new latency-based measure
to judge the quality of Internet, based on a novel data set, and compare it to related measures.
The results indicate that it may indeed be useful to measure Internet quality across countries. In
146
Statistische Woche 2015
15.-18. September, Hamburg
particular the availability of the indicator for 247 countries and semi-autonomous regions makes it
an interesting tool for policy analysis.
The possibility to examine the effects of different determinants on individual quantiles is particularly interesting. ICT investment appear to be stronger correlated with lower latency in the
upper part of the distribution, while the effect on the lower part is less pronounced. In addition
we find that population density is an important determinant of latency – an argument which is
brought up in the theoretical discussion on ICT investment but – to my knowledge – not found
empirically to date.
185 Imputation of the Working Time Info for the Employment
Register Data
Johannes Ludsteck1 , Ulrich Thomsen
IAB Nürnberg, Germany, [email protected]
SECTION: Empirical Economics and Applied Economics
The share of missing information on the job activity profile (Tätigkeitsschlüsssel) in the German
Employment Register data (Beschäftigtenstatistik) increased temporarily to roughly 25% after a
change of the data collection method in 2011. As a by-product, the change of the data collection
method revealed systematic reporting errors (employers miss to update the working time info after
changes of the working time in continuing jobs).
We test simple hypotheses on the causes of the reporting errors, assess the consequences of
these errors on wage analyses and develop a simple model to impute the missings. To this aim, we
compare the predictive power of Logit, Probit, linear probability models, classification trees and
nonparametric probit models.
186 Wer ist arbeitslos? Warum und wie viele?
Thomas Weißbrodt1
Bundesagentur für Arbeit, Germany, [email protected]
SECTION: Labour Market and Social Security
Wer ist arbeitslos? Warum und wie viele? Im allgemeinen Sprachgebrauch werden die Begriffe
SGB II“, SGB III“, Hartz IV“, Arbeitslosigkeit“, Langzeitarbeitslosigkeit“ häufig vermengt.
”
”
”
”
”
Oft ist unbekannt, dass viele Personen im Leistungsbezug - sei es Arbeitslosengeld oder Arbeitslosengeld II - nicht per se arbeitslos sind. Und nicht alle Langzeitarbeitslosen sind im Rechtskreis
SGB II zu finden. Aber auch nicht alle Arbeitslosen im SGB II sind automatisch langzeitarbeitslos.
Da diese Begriffe und die entsprechenden statistischen Größen Grundlagen für differenzierte Analysen sind, soll der Beitrag Grundsätzliches zur Messung von Arbeitslosigkeit und Leistungsbezug
behandeln. Die zentralen Fragen lauten: Welche Schnittmenge von Arbeitslosen und erwerbsfähigen
Leistungsberechtigten gibt es? Warum sind nicht alle Personen, die potenziell eine Beschäftigung
aufnehmen können, arbeitslos? Welche regionalen Unterschiede gibt es? Wie viele Personen in einer
147
15.-18. September, Hamburg
Statistische Woche 2015
ungeförderten Beschäftigung erzielen ein Einkommen, das zu niedrig zur Sicherung des Lebensunterhaltes ist? Wie lange dauert Arbeitslosigkeit?
187 Langzeitarbeitslosigkeit - Begriff, Messung und wichtige
Befunde
Michael Hartmann1
Bundesagentur für Arbeit, Germany, [email protected]
SECTION: Labour Market and Social Security
Langzeitarbeitslosigkeit ist ein wichtiges arbeitsmarkt- und sozialpolitisches Problem. Im Jahr
2014 waren jahresdurchschnittlich 1,1 Mio Menschen länger als ein Jahr arbeitslos gemeldet. Das
waren 37 Prozent aller registrierten Arbeitslosen. Wie die Arbeitslosigkeit insgesamt so ist auch
die Langzeitarbeitslosigkeit kein fester Block, der sich nicht verändert. Auch bei einer konstanten
Bestandszahl der Langzeitarbeitslosigkeit werden viele Personen neu langzeitarbeitslos, während
viele (andere) Personen ihre Langzeitarbeitslosigkeit beenden. Was sind die Risikofaktoren für den
Übertritt in die Langzeitarbeitslosigkeit? Wie groß ist die Chance durch Beschäftigungsaufnahme
die Langzeitarbeitslosigkeit zu beenden und wie verändert sie sich mit der Dauer der Arbeitslosigkeit? Der Vortrag erläutert die Messung der Langzeitarbeitslosigkeit und beschreibt den Prozess der
Langzeitarbeitslosigkeit im Stock-Flow-Modell. Im Vortrag werden statistische Befunde zu Niveau,
Struktur und Entwicklung der Langzeitarbeitslosigkeit dargestellt.
188 Die Erfassung von Erwerbstätigkeit durch unterschiedliche
Erhebungsmethoden
Anja Crößmann1 , Matthias Eisenmenger
Statistisches Bundesamt, Germany, [email protected]
SECTION: Labour Market and Social Security
Die Berichterstattung zum Arbeitsmarkt bedient sich unterschiedlicher Statistiken, um ihre vielseitigen Themen möglichst umfassend abbilden zu können. Zur Darstellung der Erwerbstätigkeit
werden verschiedene Datenquellen mit unterschiedlichen Erfassungsmethoden verwendet, die entsprechende Auswirkungen auf die Ergebnisse haben. Abweichungen in den Statistiken sind vor allem
auf Unterschiede der eingesetzten Methoden und Verfahren zurückzuführen, basieren aber in Teilen
auch auf nicht vollständig übereinstimmenden Definitionen. So weichen beispielsweise Angaben aus
Befragungen häufig von denen ab, die durch die Auswertung amtlicher Register ermittelt werden.
Ein wesentliches Charakteristikum des Zensus 2011 war die Zusammenführung diverser Datenquellen. Dabei wurden auf bestehende Angaben in Verwaltungsregistern zurückgegriffen und diese in
bestimmten Bereichen durch Vollerhebungen und Stichprobenbefragungen ergänzt. Diese neuartige
Vorgehensweise im Zensus 2011 bietet die Möglichkeit, abweichende Angaben aus unterschiedlichen
Datenquellen zu identifizieren und genauer zu untersuchen. Zur Erfassung der Erwerbstätigkeit im
Rahmen des Zensus 2011 wurden Angaben aus der Haushaltsbefragung mit den Daten aus dem
148
Statistische Woche 2015
15.-18. September, Hamburg
Erwerbsregister der Bundesagentur für Arbeit sowie dem Register der öffentlichen Arbeitgeber zusammengeführt. Bei einem Vergleich der einzelnen Ergebnisse lassen sich bestimmte Teilgruppen
auf dem Arbeitsmarkt identifizieren, die mit abweichenden Angaben zu ihrer Beschäftigung in den
Quellen erfasst wurden. Ein Beispiel hierfür sind die ausschließlich geringfügig Beschäftigten, deren
Erfassung sich in Haushaltserhebungen erfahrungsgemäß schwierig gestaltet. Über diese – bereits
bekannte Erfassungsproblematik – hinaus lassen sich weitere Gruppen identifizieren, zu denen unterschiedliche Angaben in den Datenquellen vorliegen. Diese Gruppen werden analysiert und ihre
Struktur anhand verschiedener Merkmale beschrieben. Der Vortrag diskutiert darüber hinaus Erkenntnisse über die Besonderheiten verschiedener Erhebungsmethoden, deren möglichen Einfluss
auf die Abbildung der Erwerbstätigkeit.
189 Warum im Zensus die Ergebnisse der Stichprobenmethode
keine Benachteiligung der großen Gemeinden darstellen: Eine
Detektivarbeit.
Ulrich Rendtel1
FU Berlin, Germany, [email protected]
SECTION: Methodology of Statistical Surveys
Der Vortrag setzt sich mit dem empirischen Befund auseinander, dass die unterschiedliche Behandlung der kleinen und der grossen Gemeinden beim Zensus 2011 zu unterschiedlich hohen Differenzen
zwischen Bevölkerungsfortschreibung und Zensus führt. Dabei weisen die grossen Gemeinden mit
mehr als 10000 Einwohnern eine im Schnitt um 1.5 Prozentpunkte niedrigere Zensuszahl als in der
Bevölkerungsfortschreibung aus. Dieser aus der letzten Statistischen Woche gezeigte Befund von
Christensen et al. (2014) gezeigte Befund wird mit einem erweiterten semiparametrischen Analyseinstrumentarium für jedes einzelne Bundesland separat re-analysiert. Hierbei zeigt sich in drei
Bundesländern kein derartiger Methodeneffekt des ab 10000 Einwohnern benutzten Stichprobenverfahrens. Es wird die Frage untersucht, warum ein scheinbar so allgemeiner Methodeneffekt sich
in drei Bundesländern nicht zeigt. Es zeigt sich, dass plausible Argumente darauf hinweisen, dass
die Einwohnermelderegister in diesen drei Bundesländern besser geführt werden als in den anderen Bundesländern. In dieser Sichtweise deckt das Stichprobenverfahren systematische Mängel der
Einwohnermelderegister auf, während das formal kaum spezifizierte Klärungverfahren, das bei den
kleinen Gemeinden angewendet wird, diesen Mangel nicht aufdeckt. In diesem Sinne können sich die
grossen Gemeinden nicht über eine Benachteiligung bei der Schätzung ihrer amtlichen Einwohnerzahl beklagen, da der gezeigte Effekt einem unpräzisen Meldewesen zuzuschreiben ist. allerdings
kommen die kleinen Gemeinden bei dem ”Klärungsverfahren” im Schnitt zu gut weg. Schließlich
wird noch überprüft, ob es bei der letzten Volkszählung 1987, bei der alle Haushalte mit einer 100
Prozent Stichprobe gezählt wurden, eine Genauigkeitsschwelle an der 10000-er Marke gab.
190 Sample Size Determination in Business Tendency Surveys
Christian Seiler1 , Klaus Wohlrabe
149
15.-18. September, Hamburg
Statistische Woche 2015
ifo Institut-Leibniz Institut für Wirtschaftsforschung, Germany, [email protected]
SECTION: Methodology of Statistical Surveys
Business tendency surveys are a widely used tool to trace the current state of the economy. The
Purchasing Manager Index for various countries or the Ifo Business Climate Index in Germany
are two of the most important and influential examples in business cycle monitoring. For each
survey indicator the question of its reliability arises. In addition, the creation, organisation and
maintainance of business survey panels are costly. This paper analyses the connection between
sample size and the IC ratio, an important measure to assess the reliability of business tendency
indicators. We perform a simulation study for different economic time series and filter methods.
Our results show that the optimal sample size strongly depends on the investigated time series,
in particular highly oscillating series can be measured more reliable with a smaller number of
observations.
191 Analyse der Umfragewerte vor Bundestags- und
Europawahlen
Christian (1) Hoops, Wolfgang (2) Donsbach, Tobias (1) Michael
Ipsos Public Affairs, Germany, [email protected]
SECTION: Methodology of Statistical Surveys
Bisher hat nur eine unzureichende systematische Auswertung von Wahlprognosen stattgefunden.
Unser Beitrag stellt den Prognose-Almanach der deutschen Wahlforschung vor, der diese Lücke
schließt und künftig zeitnah nach einer Bundestags- oder Europawahl aktualisiert wird.
Aktuelle Analysen zeigen, dass in Deutschland keine Partei ungewöhnlich oft unter- oder
überschätzt wurde. Die meisten Fehlprognosen gab es bei der FDP, vermutlich aufgrund kurzzeitiger taktischer Wahlentscheidungen der Wähler. Nur der SPD sprach man vor den Wahlen zum
Europäischen Parlament regelmäßig zu viele Stimmenanteile zu sowie den sonstigen Parteien zu
wenig. Möglicherweise sind methodische Fehler hierfür verantwortlich.
Der Vortrag gibt zudem eine Einführung in die Vorgehensweisen, wie in der Praxis Wahlprognosen erstellt werden. Umfrageinstitute verwenden hierfür Projektionsfunktionen, die zahlreiche
Parameter enthalten und streng geheim sind. Durch Anwendung dieser Funktionen ist die Angabe
von Stichprobenfehlern aus statistischer Sicht eigentlich unzulässig. Zur Beurteilung der Prognosegüte verwenden wir den Mean Absolute Percentage Error (MAPE). Eine Simulation zeigt, dass
dieses relative Prognosemaß häufiger korrekt klassifiziert als andere absolute Maße.
192 Parteien im politischen Spektrum: Statistische Modellierung
und Schätzung der Positionen aus Textdaten - Deutsche
Bundestagswahlen 1990 – 2013
Carsten Jentsch1 , Eun Ryung Lee, Enno Mammen
Universität Mannheim, Germany, [email protected]
150
Statistische Woche 2015
15.-18. September, Hamburg
SECTION: Methodology of Statistical Surveys
A primary task in comparative politics is to locate party positions in a political space. There have
been numerous empirical methods to extract the information from political texts. Political texts
contain an extremely large number of words and the statistical problem of analyzing the counts
of the word simultaneously is rather challenging. This has not been satisfactory answered in the
literature. In the paper, we first attempt to answer this by considering Poisson models for each
word count simultaneously and by providing a suitable statistical analysis. In particular, we allow
for multi-dimensional party positions and develop a data-driven way of determining the number
of positions from theory. This gives a new insight in the evolution of party positions and helps
our understanding of a political system. Additionally, we consider a novel model which allow the
political lexicon to change over time and develop a technique of using LASSO and fused LASSO in
order to make inference. This gives more insight into the use of words by left and right-wing parties
over time. Furthermore, to address the potential dependence structure of the word counts over time,
we included integer-valued time series processes into our modeling approach and we implemented a
suitable bootstrap method to construct confidence intervals for the model parameters. We apply our
approach to German party manifestos of five parties over all seven federal elections after German
reunification. Here, penalization in form of LASSO and fused LASSO makes it possible to deal with
the resulting high-dimensional setup and allows us to fit a model of more than 50,000 parameters
to a (7,000 by 35) data matrix which is sparse. Our simulation studies confirm that our procedure
is robust, runs stable and leads to meaningful and interpretable results.
193 Robust Change Point Tests and Subsampling under Long
Range Dependence
Martin Wendler1 , Annika Betken, Herold Dehling, Aeneas Rooch
Erst-Moritz-Arndt-Universität Greifswald, Germany, [email protected]
SECTION: Time Series with Structural Breaks
We present robust change point test under long range dependence. The test statistic is based on twosample U-statistics related to robust M estimators for the difference of location. The scaling needed
to achieve convergence in distribution and the shape of the limit distribution depends on unknown
parameters. To deal with these difficulties, we propose to combine self-normalized statistics and a
subsampling approach. We will show the consistency of the subsampling for Gaussian long range
dependent time series and apply the result to a self-normalized version of our change point test.
194 A Wilcoxon-Based Testing Procedure for Distinguishing
between Long-Range Dependence and Short-Range Dependence
with a Change in Mean
Carina Gerstenberger1
Ruhr-Universität Bochum, Germany, [email protected]
151
15.-18. September, Hamburg
Statistische Woche 2015
SECTION: Time Series with Structural Breaks
For some applications it is necessary to know whether a time series is short- or long-range dependent, and quite a number of test statistics discriminate between these dependence structures.
However, most of these tests spuriously reject the hypothesis of short-range dependence when
change-points are present. Berkes, Horváth, Kokoszka and Shao (2006) have developed a test that
does not have this drawback, and that is able to distinguishing between long-range dependence
and short-range dependence with a change in the mean. After estimating the change-point, they
calculate the CUSUM statistic based on the observations up to the estimated change-point and
based on the observations after it. They show that the maximum of these two test statistics converges under the hypothesis of short-range dependent data with a change in mean in distribution to
max{sup0≤t≤1 |B (1) (t)|, sup0≤t≤1 |B (2) (t)|}, where B (1) and B (2) are independent Brownian bridges.
The distribution of sup0≤t≤1 |B(t)| is well known. Baek and Pipiras (2012) criticize that the test
by Berkes et al. (2006) is too conservative and has a low power against the alternative, even if they
consider the size adjusted power.
We propose a modification of the test by Berkes et al. (2006) where instead of the CUSUM
statistic we use the Wilcoxon change-point test statistic
X
n
k X
W1,n = max 1{Xi ≤Xj } − 1/2 ,
1≤k<n i=1 j=k+1
introduced by Dehling, Rooch and Taqqu (2013). Under the hypothesis, we consider L1 near epoch
dependent random variables with a change in mean at unknown time. We prove that the new test
W k̂
Wk̂+1,n
statistic Mn = max{ 1,3/2
}, where k̂ is the estimated breakpoint and σ̂12 and σ̂22 are
,
σ̂1 k̂
σ̂2 (n−k̂)3/2
suitable long-run variance estimators, converges under the hypothesis in distribution to the same
limit as the CUSUM-based test. Simulation results show that the Wilcoxon-based test is not as
conservative as the test by Berkes et al. (2006), especially for small sample sizes. Also the power of
the Wilcoxon-based test is much higher than the power of the CUSUM-based test. While the latter
is losing power on heavy-tailed processes, the power of the Wilcoxon-based test is not influenced
by heavy-tailed distributions.
195 A Multivariate Local Whittle Estimator for the Long-Memory
Parameter in Presence of Trends and Structural Breaks
Christian Leschinski1 , Philipp Sibbertsen
Leibniz Universität Hannover, Germany, [email protected]
SECTION: Time Series with Structural Breaks
As in the univariate case, analyses of multivariate long memory and fractional cointegration may
generate spurious results in the presence of low frequency contaminations such as level shifts or
trends. We therefore propose a multivariate local Whittle estimator for the memory parameters
of a vector series that is robust with respect to these contaminations. In the case of fractional
cointegration, it allows a simultaneous estimation of the memory parameters and the cointegrating
vector. It is shown that the estimator is consistent and asymptotically normal. A Monte Carlo study
152
Statistische Woche 2015
15.-18. September, Hamburg
is conducted to explore its small sample properties. The results show that in contrast to standard
multivariate GSE methods, our estimator successfully mitigates the impact of level shifts. Due to
the inclusion of the phase and coherence information in the multivariate series, our method allows
more precise estimates compared to a repeated univariate analysis. An application to log-absolute
returns of the S&P 500 shows, that part of the memory in this volatility series can be attributed
to low frequency contaminations.
196 Testing for Changes in Persistence in APARCH-ML Models
Tristan Hirsch1
Leibniz Universität Hannover, Germany, [email protected]
SECTION: Time Series with Structural Breaks
Testing for changes in persistence in all its variations and combinations has always been a contemporary issue and yet, has it never been more questioned than today. Following the latest research,
the ability to characterize a time series stationary and non-stationary parts seems to be very desirable, since this behavior is essential for not only hypothesis testing and forecasting in economics
as well as in finance but also for correct model building.
The presence of heteroscedasticity in financial time series as well as asymmetric volatility and
different transmission effects, notably the in mean and level effect, where the level affects the
conditional variance and the conditional variance affects the mean, make testing and distinguishing
the time series between I(0) and I(1) more difficult because the intrinsic persistence of the model
can be mistaken with the extrinsic persistence due to the transmission effects.
In our paper we apply tests for changes in persistence, inter alia Kim (2000) and Leybourne et
al. (2007), to an APARCH-ML model with transmission effects and show that these tests suffer
a loss in power and are oversized in case where the transmission effects are present, whereby the
power and size are not affected from GARCH effects or the asymmetric volatility. Furthermore,
we show that this model has an ARMA representation which is the reason for the size distortion
due to wrong critical values. In this ARMA representation the level and the conditional volatility
of the time series are directly independent of each other. Therefore, we can correct the tests for
the ARMA component which has better performance and correct size in the APARCH-ML model.
The framework is compared to other tests for changes in persistence in an empirical application to
inflation rates.
197 Exact computation of the halfspace depth
Rainer Dyckerhoff1 , Pavlo Mozharovskyi
Universität zu Köln, Germany, [email protected]
SECTION: Data depth and classification
We suggest a theoretical framework for computing the exact value of the halfspace depth of a
point z w.r.t. a data cloud x1 , . . . , xn of n points in arbitrary dimension. Based on this framework
a whole class of algorithms can be derived. In all of these algorithms the depth is calculated as the
153
15.-18. September, Hamburg
Statistische Woche 2015
minimum over a finite number of depth values w.r.t. proper projections of the data cloud. Three
variants of this class are studied in more detail. All of these algorithms are capable of dealing with
data that are not in general position and even with data that contain ties. As our simulations show,
all proposed algorithms prove to be very efficient.
198 Tukey-trimmed regions via univariate projection quantiles
Xiaohui Liu, Karl Mosler, Pavlo Mozharovskyi1
Universität zu Köln, Germany, [email protected]
SECTION: Data depth and classification
Data depth is a statistical function which assigns to each point z ∈ Rd its degree of centrality
w.r.t. a given data cloud X. Tukey depth (1975) is defined as the smallest fraction of X that can
be cut off by a closed halfspace with z on its boundary. A Tukey τ -trimmed region is the set of
all points that have at least Tukey depth τ in X. As Tukey regions are visual, affine equivariant
and robust, they are a useful tool in nonparametric multivariate analysis. While these regions are
easily defined and interpreted, their particular application is impeded by the lack of an efficient
computational procedure for d > 2. Hallin, Paindaveine and Šiman (The Annals of Statistics, 2010)
develop a concept of multivariate directional quantiles which allows to compute the Tukey regions
as a particular case.
Different to them, we exploit the quantile tomography of Kong and Mizera (Statistica Sinica,
2012), which defines a Tukey contour as the envelope of essentially univariate quantiles in projections on directions filling the Rd . A finite number of such directions is sufficient to compute the
quantile envelope. Based on this, we construct an algorithm that exploits the combinatorial properties of the Tukey region and is, by that, very fast. Additionally, we derive an upper bound on
the number of the facets of a Tukey-trimmed region.
199 Depth-based classification for unimodal distributions
Ondrej Vencalek1 , Pavlo Mozharovskyi
Palacky University in Olomouc, Czech Republic, [email protected]
SECTION: Data depth and classification
Statistical inference based on data depth is nonparametric – it has been developed to avoid strict
distributional assumptions. However, performance of depth-based classifiers was quite often investigated only for elliptically symmetric distributions. In that case the levelsets of density correspond
to the depth-based central regions. We deal with more general (though still quite special) situation
of unimodal distributions with convex levelsets of density. Thus we do not restrict our attention only to symmetric distributions, but we admit nonsymmetric distributions like skewed normal
distribution.
Since the Bayes optimal classifier is based on density, the discrepancy between levelsets of density
and depth-based central regions causes problems in classification. A possible solution lies in newly
defined notion of data depth, where the deepest point corresponds to the modus rather than the
154
Statistische Woche 2015
15.-18. September, Hamburg
median of the distribution. The current contribution deals with one possible definition of such a
depth function.
200 Data depth and classification: R-package ”ddalpha”
Oleksii Pokotylo1 , Pavlo Mozharovskyi
Universität zu Köln, Germany, [email protected]
SECTION: Data depth and classification
1975 John W. Tukey proposed a novel way of data picturing, which rapidly developed into a
powerful machinery for nonparametric analysis of multivariate data. The so-called data depth is a
statistical function that evaluates closeness of an arbitrary point to some implicit center of present
data. During the last several decades a variety of notions for the depth function have been suggested,
differing in the aspects of the data they reflect, statistical properties, and computability. Among
its applications, an important place occupies the currently advancing direction of depth-based
classification.
The R-package “ddalpha” offers a set of tools implementing algorithms for exact and approximate computation of the data depth and depth-based supervised classification of multivariate
and functional data under one roof. The depth-vs-depth (DD-) classifier first depth-maps the data
into a unit hypercube, and then performs classification in this low-dimensional space. In this way,
coupling data depth with the alpha-procedure yields the ddalpha-classifier, a fast and robust methodology for machine learning. Special attention is payed to “outsiders”, points having zero depth
w.r.t. all training classes and thus hindering their depth-classification, and extension of the data
depth to functional settings.
Additionally, the package contains instruments for exploring the data using data depth and DDclassifiers, including built-in empirical risk estimation and parameter tuning via cross-validation,
visualization of the depth surfaces and DD-plots, a huge variety of real sets of multivariate and
functional data, and synthetic data generators.
The main functions of the package are presented, different notions of data depth and their combinations with the DD-classifiers are applied to a variety of simulated and real data and compared.
201 The mathematical link between discriminant function and
transfer function for dynamic system description
Tatjana Lange1
HS Merseburg, Germany, [email protected]
SECTION: Data depth and classification
The problem of many areas of sciences and practical applications consists in the finding of the
so-called “decision rule”, and after it in the finding of the easiest way of using this “decision rule”
for forecasting, automatic classification, risk reduction, improving of the dynamic characteristics of
155
15.-18. September, Hamburg
Statistische Woche 2015
technical devices, etc. In all areas where for that purpose mathematics can be used the concrete
mathematical tools may be very different depending on the application area. In this paper the
author tries to show the mathematical link between some of these different mathematical tools,
especially between the term of “decision rule” (or “discriminant function”) used in the theory of
pattern recognition and classification, the “transfer function” widely used for the dynamic system
description in close-loop control and in the theory of signals and systems, and the “discriminant
function” in regression analysis used for the analysis of dynamic, stochastic and chaotic systems
but also in mathematical statistics. The comparison will be done on the basis of the geometric
presentation in linear algebra. It may be an originating point for further investigations in the theory
of pattern recognition and classification, but also in the areas listed above where forecasting, risk
estimation or suchlike are required.
202 Physically coherent probabilistic weather forecasts via
discrete copula-based ensemble postprocessing methods
Roman Schefzik1 , Thordis Thorarinsdottir, Tilmann Gneiting
HITS gGmbH, Germany, [email protected]
SECTION: Computational Statistics and Data Analysis
State-of-the-art weather forecasts depend on ensemble prediction systems, which consist of multiple
runs of dynamical numerical weather prediction models differing in the initial conditions and/or the
parameterized numerical representation of the atmosphere. Statistical postprocessing of the ensemble forecasts can address biases and dispersion errors. However, current postprocessing approaches
are mostly univariate and apply to a single weather quantity at a single location and for a single
prediction horizon only. Such methods do not account for dependencies which are crucial in many
applications.
Non-parametric multivariate postprocessing approaches based on empirical copulas offer appealing options to address this. The ensemble copula coupling (ECC) method uses the empirical
copula of the raw ensemble to aggregate samples from predictive distributions obtained by univariate postprocessing. It captures the spatial, temporal and inter-variable rank dependence pattern
of the unprocessed raw ensemble. Proceeding in a similar manner, the Schaake shuffle alternatively
captures dependence structures of past observations rather than ensemble forecasts. A specific implementation of the Schaake shuffle employs historical observation data from past dates for which
the corresponding ensemble forecast resembles the current one.
The methods are illustrated and tested using real weather forecast data provided by the European Centre for Medium-Range Weather Forecasts.
203 Regressionsanalysen für indirekte Daten
Heiko Grönitz1
Philipps-Universität Marburg, Germany, [email protected]
SECTION: Computational Statistics and Data Analysis
156
Statistische Woche 2015
15.-18. September, Hamburg
Wir betrachten ein kategoriales Merkmal Y und einen Kovariablenvektor X und wollen den Einfluss von X auf Y statistisch untersuchen. Wenn man Y und X beobachtet hat, ist das Vorgehen
hierzu allgemein bekannt: Typischerweise unterstellt man ein Modell für die Abhängigkeit des Merkmals Y von der exogenen Größe X (etwa multivariates logistisches Regressionsmodell) und schätzt
die Modellparameter mit Standardalgorithmen (etwa Newtonverfahren zur Maximierung der Likelihoodfunktion zu Daten über Y).
Manchmal trifft man allerdings auf Situationen, wo zwar über X, nicht aber über Y direkte Daten vorliegen, sondern Y mit Hilfe eines weiteren Merkmals W zu einem Merkmal A verschlüsselt
wird. Dem Forscher liegen nur Daten von A und nicht von Y oder W vor und man kann von A
nicht den Y-Wert folgern. Beispielsweise trifft man auf so eine Konstellation, wenn Y ein sensitives
Merkmal ist, worüber Befragte ungern direkt Auskunft geben (etwa Einkommen oder Umfang einer
ausgeübten Schwarzarbeit jeweils in Klassen erfasst), und Daten über Y unter Verwendung eines die
Privatsphäre schützenden Umfragedesigns (Item-Count-Technik, Randomized-Response-Verfahren,
Nonrandomized-Response-Methoden) gesammelt werden. Zum anderen könnte die beschriebene
Verschlüsselung angewendet werden aus Datenschutzgründen. Hierbei gibt eine Institution nicht
die direkten Daten über Y, sondern die verschlüsselten Daten A und das Verschlüsselungsschema
an eine andere Institution weiter.
Dieser Beitrag beschäftigt sich mit der Frage, ob und wie sich Regressionsanalysen mit indirekten
Daten A statt Y durchführen lassen. Mit anderen Worten: Ist es möglich, den Einfluss von X
auf Y zu untersuchen, wenn man nur verschlüsselte Daten A statt den Ursprungsdaten Y hat?
Wir werden zeigen, dass solche Regressionsuntersuchungen tatsächlich machbar sind. Hierzu leiten
wir Ansätze zur Schätzung her und erläutern Verfahren zur Schätzwertbestimmung sowie deren
Eigenschaften. Die vorgeschlagenen Schätzverfahren sind dabei computerintensiv. Es zeigt sich,
dass gewisse Matrizen, die sich aus dem Verschlüsselungsschema ergeben, die zentrale Rolle bei der
Schätzung spielen, wohingegen das konkrete Verschlüsselungsschema nicht unbedingt relevant ist.
Damit haben unsere Methoden sehr breite Anwendungsmöglichkeiten.
204 Bidding Curve Dynamics
Stefan Rameseder1 , Dominik Liebl
Universität Regensburg, Germany, [email protected]
SECTION: Computational Statistics and Data Analysis
In the case of an uniform price allocation, frequential multi-unit auctions provide a representative price signal. However, discriminatory multi-unit mechanisms tend to be strategic games called
”guess the marginal price” rather than giving a simple and transparent signal and therefore a functional data approach to extract all information is natural. Our dynamic functional factor model is
tailored for this challenging area of application. To cope with the irregularly spaced and stronlgy
time-dependent bids we propose to estimate the model components from discrete difference quotients using sparse functional principial component analysis. Based on our functional factor model
we derive a new pricing algorithm by using uncertainty measures, which is demonstrated in a real
data study and compared to standard univariate bidding procedures.
157
15.-18. September, Hamburg
Statistische Woche 2015
205 Spatial variation of drivers of agricultural abandonment with
spatially boosted models
Max Schneider1 , Gilles Blanchard, Christian Levers, Tobias Kuemmerle
Universität Potsdam, Germany, [email protected]
SECTION: Computational Statistics and Data Analysis
Agricultural abandonment (AA) is a significant land use process in the European Union (EU)
and modeling its driving factors has great scientific and policy interest. Past studies of drivers of
AA in Europe have been limited by their restricted geographic regions and their use of traditional
statistical methods, failing to consider the spatial variation in both predictors and AA itself. In this
study, we broaden our experimental region to cover the EU, which is the level of many agricultural
policies governing AA, thus covering far more data as well as diverse landscapes. We implement a
modeling framework based on boosted regression with spatially-varying terms, choosing the squared
loss function and smoothing splines as base learners for their superior statistical properties. By
building models containing both constant and spatially-varying coefficients, as well as modelizing
the spatial variation of AA, we assess the importance of the spatial relationship between the drivers
and AA. Models are built to classify agricultural land as abandoned or not. The potential drivers
come from a set of over 40 landscape, environment and socio-economic variables hypothesized to
influence AA, which is derived using fallow-active classifications of agricultural land from satellite
images over the last 12 years. Models are then evaluated under several quantitative performance
criteria; better performance of the models containing spatially-varying regressors over spatiallyconstant models indicates that the spatial variation of top predictors must be considered in process
understanding of AA. Our analysis uncovers marked spatial variability in the behavior of top drivers
of AA over the spatial domain; in fact, models with spatially-varying predictors outperform their
spatially-constant counterparts.. Our models thus help capture the nuanced spatial relationships
leading to observed rates of EU farmland abandonment.
206 Neue Datenquelle für die Statistik zur
Arbeitnehmerüberlassung
Holger Meinken1
Bundesagentur für Arbeit, Germany, [email protected]
SECTION: Labour Market and Social Security
Seit der Einführung der gewerbsmäßigen Arbeitnehmerüberlassung melden die Verleihbetriebe
halbjährlich aggregierte Angaben über ihre Leiharbeitnehmer an die Statistik der Bundesagentur
für Arbeit, die daraus die Daten zur Arbeitnehmerüberlassung veröffentlicht. Im Jahr 2012 wurde
die Voraussetzung geschaffen, diese Statistik in die Beschäftigungsstatistik zu integrieren – durch
ein gesondertes Kennzeichen der Arbeitnehmerüberlassung im bestehenden Meldeverfahren zur
Sozialversicherung.
158
Statistische Woche 2015
15.-18. September, Hamburg
Wesentliche Vorteile der neuen Statistik zur Arbeitnehmerüberlassung sind einerseits die größere
fachliche Breite und Tiefe sowie andererseits die Kombinationsmöglichkeit mit bereits vorhandenen Merkmalen. Auf Grundlage der neuen Datenquelle können differenziertere Informationen der
Leiharbeitnehmer beispielsweise nach Regionen, nach ausgeübten Tätigkeiten, nach dem Anforderungsniveau der Tätigkeiten (Helfer, Fachkraft, Spezialist, Experte) und nach dem Alter oder
der Staatsangehörigkeit veröffentlicht werden. Mit der Integration der Statistik zur Arbeitnehmerüberlassung in die Beschäftigungsstatistik wird zudem eine höhere Qualität der Angaben über
Leiharbeitnehmer sowie die Konsistenz zur bestehenden Beschäftigungsstatistik erreicht.
Die Verleihbetriebe brauchen nun keine gesonderten Meldebelege mehr ausfüllen, weil die relevanten Informationen für diese Statistik bereits in den ohnehin erforderlichen Sozialversicherungsmeldungen des Arbeitgebers enthalten sind. Damit wird der Meldeaufwand für die Verleihbetriebe
deutlich verringert.
Insgesamt bietet eine in die Beschäftigungsstatistik integrierte Statistik zur Arbeitnehmerüberlassung
eine höhere Leistungsfähigkeit als die bisherige gesonderte Statistik, bei gleichzeitig geringerem Erhebungsaufwand und höherer Konsistenz zur Beschäftigungsstatistik. Die Änderungen der Datenquelle und erste Ergebnisse aus der neuen Datenquelle werden vorgestellt.
207 Wie lange dauern Beschäftigungsverhältnisse? Ein
Werkstattbericht
Sandra Renn1 , Maren Rinn
Bundesagentur für Arbeit, Germany, [email protected]
SECTION: Labour Market and Social Security
Fragen zur Stabilität von Beschäftigung und ihrer Dauer sind in der Arbeitsmarkt- und sozialpolitischen Diskussion der vergangenen Jahre stärker in den Fokus gerückt. Die Sicherheit des Lebensunterhalts, die Qualität der Arbeit und der Erwerb von Rentenanwartschaften sind nur einige Aspekte, die dabei eine Rolle spielen. Bislang wurden diese Themen hauptsächlich mit Befragungsdaten aus Stichprobenerhebungen bearbeitet. Als Vollerhebung bietet die Beschäftigungsstatistik die
Möglichkeit, Dauern von sozialversicherungspflichtigen und geringfügigen Beschäftigungsverhältnissen
zu untersuchen. Sie erlaubt differenzierte Analysen, beispielweise in regionaler und wirtschaftsfachlicher Gliederung sowie nach beruflicher Tätigkeit.
Die Statistik der Bundesagentur für Arbeit bereitet gegenwärtig die Veröffentlichung von
Beschäftigungsdauern für das Jahr 2016 vor. Im Tagungsbeitrag erläutern wir die Messkonzepte und
diskutieren deren Aussagen. Deskriptive Befunde aus der Beschäftigungsstatistik werden präsentiert
und den Ergebnissen des Mikrozensus und dem sozioökonomischen Panel gegenübergestellt.
208 Der Einfluss regionaler Feiertage auf die frühzeitige
Arbeitsuchend-Meldung
Gerald Seidel1
Bundesagentur für Arbeit, Germany, [email protected]
159
15.-18. September, Hamburg
Statistische Woche 2015
SECTION: Labour Market and Social Security
Der Zugang nicht-arbeitsloser Arbeitsuchender aus Beschäftigung am 1. Arbeitsmarkt ist ein
kurzfristiger Frühindikator für die Entwicklung der Arbeitslosigkeit. Diese statistische Größe gibt
näherungsweise die Zahl der frühzeitigen Arbeitsuchend-Meldungen (§ 38 Sozialgesetzbuch III) wider. Um die Ursprungsdaten der Zeitreihe von unterjährig regelmäßigen, vorhersehbaren Schwankungen zu befreien und so ihre Verwendung als Frühindikator zu erleichtern, wird sie in der Statistik
der Bundesagentur für Arbeit saison- und kalenderbereinigt. Dabei zeigt sich, dass die verschiedenen
regionalen Feiertage in unterschiedlichem Maße Einfluss auf die frühzeitige Arbeitsuchend-Meldung
haben. Nach einer kurzen methodischen Darstellung der Kalenderbereinigung werden die Ergebnisse der verwendeten RegARIMA-Schätzung vorgestellt.
209 Robust IV-based Panel Tests of Stock Return Predictability
and U.S. Monetary Policy Surprises
Matei Demetrescu, Danvee Floro1
University of Kiel, Germany, [email protected]
SECTION: Statistical Theory and Methodology
The paper addresses panel-based inference on the predictive power of possibly persistent and
endogenous variables. Even in univariate examinations, assessing the predictive power of financial
variables is often challenged by endogeneity induced by correlation between shocks to the predictors
and stock returns as well as the unknown persistence of the predictors themselves. This gives rise to
non-pivotal limiting distributions in standard inference methods, a problem that is compounded in
the panel setup, where cross-sectional dependence can also cause invalid inference. In order to produce robust results, we adapt to the panel context the overidentified instrumental variable-based
test proposed by Breitung and Demetrescu (2013, Journal of Econometrics, forthcoming) which
accommodates different degrees of persistence of the regressors as well as endogeneity. To deal with
cross-dependence, we augment our model with (estimated) common factors in the panel regression.
The discussed methods are applied in our study of the predictive power of U.S. conventional monetary policy surprises alongside typical financial valuation ratios in a panel of 230 S&P 500 stocks
sorted according to industry in the period January 1990-December 2007. The empirical analysis
shows that the surprise and expected components of Federal funds target rate changes are significant and robust predictors of stock returns, whose effects are specific to the degree of sensitivity of
the industry to monetary and business cycle conditions. Finally, we document that the predictive
power of typical financial valuation ratios are boosted when we condition them on the sign and
direction of Fed’s broad monetary policy stance.
210 Large Initial Values and Time Series Tests of the Convergence
Hypothesis
Michael Scholz1 , Martin Wagner
Karl-Franzens Universität Graz, Austria, [email protected]
160
Statistische Woche 2015
15.-18. September, Hamburg
SECTION: Statistical Theory and Methodology
Time-series based tests of the convergence hypothesis have been widely used in applied macroeconomics for over two decades. The occurrence of large initial conditions and their consequences
for the asymptotic behavior of standard unit-root tests like the Augmented-Dickey-Fuller (ADF)
test were ignored so far in the empirical growth literature. This paper analyses the ADF test in the
presence of large initial values and derives the asymptotic behavior in the stationary, the unit-root,
and the near integrated case. In a finite sample simulation study we find that the limiting distributions with the initial value component are well approximated by the theoretical results but differ
dramatically from standard ADF distributions. As a consequence, we observe severe size and power
distortions of the standard ADF test causing to many rejections of the convergence hypothesis.
The economic implications of these findings are demonstrated in an application using output series
from the Penn World Tables over 1950-2011.
211 Generalized Spatial Autoregressive Conditional
Heteroscedasticity
Philipp Otto1 , Robert Garthoff
Europa-Universität Viadrina, Germany, [email protected]
SECTION: Statistical Theory and Methodology
Assume {Y (s) ∈ R : s ∈ Ds } to be an univariate spatial stochastic process, where Ds is a subset
of the q-dimensional real numbers Rq or the q-dimensional integers Zq . Regarding the first case a
continuous space is present, if a q-dimensional rectangle of positive volume in Ds exists (cf. Cressie
and Wikle (2011)). Considering the second case the resulting process is a spatial lattice process.
Let (s1 , . . . , sn ) denote all locations and Y is the vector of observations (Y (si ))i=1,...,n . The
commonly applied spatial autoregressive model assumes that the variance is constant over all si .
This approach is extended by assuming that the variance can vary over space building clusters of
high and low variance. Analogue to the ARCH and GARCH model in time-series analysis according
Engle (1982) and Bollerslev (1986), the observation at some location i can be modeled as follows
Y = diag(h)1/2 ε
(211.1)
where εi is assumed to be independent and identical distributed random error with E(εi ) = 0 and
V ar(εi ) = 1. Furthermore, the vector h = (hi )i=1,...,n can be specified as
h = a0 1n + ρW1 (diag(Y )Y ) .
(211.2)
Matrix W of spatial weights is assumed to be non-stochastic with zero elements on the diagonal.
Moreover, one could define the residual process of a classical spatial autoregressive process as the
above introduced spatial ARCH process. %In Figure ?? we illustrate the resulting process. One
may see that the variance of the process depends on the location.
In contrast to the common temporal ARCH model, where the distribution of Yt knowing the full
information set of the previous period ψt−1 is well defined (cf. Engle (1982) and Bollerslev (1986)),
the information set of all spatially lagged locations of some location s depend on the observation
in s. Hence, the distribution of Y (si ) is not straightforward.
161
15.-18. September, Hamburg
Statistische Woche 2015
212 Model Confidence Sets for Lag Selection in Autoregressive
Models
Rolf Tschernig1 , Niels Aka
Universität Regensburg, Germany, [email protected]
SECTION: Statistical Theory and Methodology
We investigate the performance of the model confidence set (MCS) procedure proposed by Hansen,
Lunde, and Nason for linear univariate time series modeling. Among other things, applying the
MCS algorithm requires to choose a loss function and an equivalence test. For the equivalence test
we apply the T-max and the T-range statistic suggested in the literature and investigate the T-min
statistic. We propose a loss function that averages over losses resulting from various multi-stepahead forecasts.
We generate time series from simple AR(3) processes and take as initial model set AR models up
to order eight, including 246 subset models. For each model contained in the model confidence set
impulse responses and forecasts are computed and then averaged across models for each horizon.
This procedure is compared to calculations based on single models selected by AIC, HQ, and SC,
respectively.
Our results indicate that the MCS-based forecasting can be substantially better than AIC/HQ/SCbased forecasting when the newly proposed loss function based on averaging multi-step-ahead forecasting losses is used and the signal-to-noise ratio of the data generating process is large. On
the other hand, we have not found an advantage of the MCS-based procedure over traditional lag
selection for impulse response modeling.
We investigate the size and power of the MCS and find that the MCS procedure can have very
low power. However, we find that the mean squared error of prediction (MSEP) of models in the
MCS is typically only slightly larger than the MSEP of the true model. We define a set of practically
superior models that also includes those models with marginally larger MSEP. The MCS procedure
identifies this set of practically superior models very well if the signal-to-noise ratio and the sample
size are sufficiently large.
213 Multivariate dispersion estimated by the Minimum
Covariance Determinant Estimator
Gentiane HAESBROECK1
University of Liège, Belgium, [email protected]
SECTION: Nonparametric and Robust Statistics
The Minimum Covariance Determinant (MCD) estimator is a robust estimator of multivariate location and dispersion that is both intuitively appealing and widely available in statistical softwares.
After recalling the definition of this estimator and reviewing some of its known properties (high
breakdown point, bounded influence function, asymptotic normality,...), the talk will focus first
on the bias behaviour of its dispersion part. Two bias measures will be considered in order to
162
Statistische Woche 2015
15.-18. September, Hamburg
distinguish between the size bias and the shape bias of the covariance estimator and in both cases,
explosion and implosion maxbias curves will be derived.
The second part of the talk will be devoted to an adaptation of the definition of the MCD
estimator. This regularized version may be used to measure the dispersion of flat data in a robust
way or, depending on the choice of the loss function, may be useful when one is interested in getting
sparse estimated covariance matrices.
Several applications (outlier detection in spatial data, robust performance comparison of equipments in external quality assessment analyses, robust construction of graphical models,...) will be
considered throughout the talk to illustrate the usefulness of being able to combine robustness and
regularization.
214 Using data depth to find prediction intervals for state
dependent Poisson processes with application to fatigue
experiments
Sebastian Szugat1 , Christine H. Müller
Technische Universität Dortmund, Germany, [email protected]
SECTION: Nonparametric and Robust Statistics
In fatigue experiments of prestressed concrete the failure times of prestressing wires in the material
are observed. These failure times depend on the initial stress and the number of previously broken
wires because with each broken wire the stress increases on the remaining ones. A subject of
particular interest is the prediction of the L-th failure after observing J < L previous failures.
We model the number of broken wires as events of a state dependent Poisson process. Therefore the waiting times between the events are exponentially distributed. Hence, the sum of the
waiting times is the sum of exponential distributions each with a different parameter. We provide a prediction interval for the resulting hypoexponential distribution. The parameters of this
hypoexponential distribution can be estimated by using data from preceding fatigue experiments.
Robust test procedures based on data depth can then be used to construct a confidence set for the
estimated parameters and with this a prediction interval for the time of the L-th failure. Finally,
results based on simulations and real data are presented.
215 On Robust Tail Index Estimation
Dieter Schell1
Universität Konstanz, Germany, [email protected]
SECTION: Nonparametric and Robust Statistics
We consider a class of simple estimators of the tail index related to the harmonic mean. The
asymptotic results depend on the first and second order tail properties of the underlying distribution
and a tuning parameter allowing to regulate the trade-off between robustness and sensitivity. In
163
15.-18. September, Hamburg
Statistische Woche 2015
comparison to classical tail index estimators a reduced sensitivity to large outliers is demonstrated
by a small simulation study.
216 Change-point tests based on estimating functions
Claudia Kirch, Joseph Tadjuidje Kamgaing1
University of Heidelberg, Germany, [email protected]
SECTION: Time Series with Structural Breaks
Many classical change-point tests are based on cumulative sums of estimating functions, where
the most prominent example are quasi maximum likelihood scores. Examples include testing for
changes in the location model, continuous linear and non-linear autoregressive time series as well as
most recently changes in count time series. While classic theory deals with offline procedures where
the full data set has been observed before a statistical decision about a change-point is made, the
same principles can be used in sequential testing. The latter has gained some increased interest
in the last decade, where initial parameter estimation is based on some historic data set with no
change-point, before cumulative sum charts are used to monitor newly arriving data. In such a
setup, asymptotics are carried out with the size of the historic data set increasing to infinity. In
applications such a data set will typically exist as usually at least some data is collected before any
reasonable statistical inference can be made. In this talk we explain the underlying ideas and extract
regularity conditions under which asymptotics both under the null hypothesis as well as alternative
can be derived. We will illustrate the usefulness using different examples that have partly already
been discussed in the literature.
217 Robust procedures in the sequential change-point analysis
Christina Stöhr1
Otto-von-Guericke Universität Magdeburg, Germany, [email protected]
SECTION: Time Series with Structural Breaks
There are two different approaches in the context of change-point analysis. In the classical aposteriori approach, a completely observed data set is available when starting the testing procedure.
The sequential change-point test we adapt tests for structural breaks after each observation while
still controlling the type-1-error asymptotically. Due to the fact that the original distribution of the
observed data is not known this procedure requires a historical data set without a change. Robust
testing procedures are of particular importance for the sequential change-point analysis. False
alarms can lead to unnecessary costs and efforts as, for example monitoring patient or machine data
requires an immediate intervention if a structural break is detected. Hence, robust tests are needed
to reliably detect true changes without causing false alarms due to outliers in the observed data.
Related to a-posteriori tests investigated by Dehling and Fried (2011) we propose robust sequential
testing procedures based on U-statistics. We consider the construction of the test statistics and
their asymptotic behavior under the null hypothesis as well as alternatives. The performance of the
test for finite sample sizes is assessed by a simulation study.
164
Statistische Woche 2015
15.-18. September, Hamburg
218 Perfect estimation in short panel data
Leonid Torgovitski1
Mathematisches Institut der Universität zu Köln, Germany, [email protected]
SECTION: Time Series with Structural Breaks
We study the nonparametric change point estimation for common changes in the means of panel
data. The consistency of estimates is investigated when the number of panels tends to infinity
but the sample size remains finite. Our focus is the weighted total variation denoising estimates
(involving the group fused LASSO) and the popular classical weighted CUSUM (cumulative sums)
estimates. Due to the fixed sample size, the common weighting schemes do not guarantee consistency
under (serial) dependencies and most typical weightings do not even provide consistency in the i.i.d.
setting when the noise is too dominant.
Hence, on the one hand, we propose a consistent extension of existing weighting schemes and
discuss straightforward estimates of those weighting schemes. The performance will be demonstrated empirically in a simulation study. On the other hand, we derive sharp bounds on the change to
noise ratio that ensures consistency in the i.i.d. setting for classical weightings.
219 Detecting Structural Breaks in Small Samples with a Fusion
Penalty
Jana Mareckova1
Universität Konstanz, Germany, [email protected]
SECTION: Time Series with Structural Breaks
In this paper a fusion penalty is added to detect structural breaks in a linear regression with timevarying parameters. The idea of the fusion penalty is to start with the most general model and shrink
the differences of parameters consecutive in time to zero. At points, at which the differences between
the estimated parameters are non-zero, structural breaks are detected. The main advantage of the
fusion penalty over the standard statistical tests which detect structural breaks is the potential
to detect a break at the beginning or at the end of a time series without imposing too strong
assumptions about the number of change points or their positions in the time series. Regarding
the estimation, an important issue is the optimal choice of shrinkage otherwise the number of
breaks is over- or underestimated and/or the estimates are extremely biased. To select the optimal
shrinkage, two criteria are taken from the literature and one new is introduced in the paper. In
the simulation study, the criteria are compared to each other and to standard tests in terms of
the correct number of detected breaks, the closeness to the true position of the break and the bias
of the estimates. The results show that in small samples the criteria from the literature estimate
the number of breaks reasonably well, however the parameters are strongly biased. The newly
introduced criterion performs better regarding the bias and has better or comparable performance
regarding the detection of the correct number of breaks in comparison to the other chosen criteria
165
15.-18. September, Hamburg
Statistische Woche 2015
and the standard tests, especially in the presence of a break at the extreme position at the end or
at the beginning of the time series.
220 Effectiveness of Sequences of Classroom Training for Welfare
Recipients: What works best in West Germany?
Katharina Dengler1
Institut für Arbeitsmarkt- und Berufsforschung, Germany, [email protected]
SECTION: Labour Market and Social Security
Sequences of active labour market programmes (ALMPs) may be part of an intensified activation strategy targeting hard-to-place individuals who may be long-term unemployed and who may
encounter extreme difficulty in finding jobs. Such sequences are very common among welfare recipients in Germany, but most studies only evaluate either single ALMPs or unemployed individuals’
first ALMP. Thus, I analyse the effects of different sequences of classroom training, unemployment
benefit II (UB-II)-receipt and One-Euro-Jobs for West German men and women on different labour
market outcomes. Using rich administrative data and a dynamic matching approach, I can control
for dynamic selection problems that occur during a sequence. My results show that two classroom
trainings are more effective than two periods of UB-II-receipt in helping welfare recipients find
regular employment, especially among West German women. In some cases, avoiding participation in multiple programmes is preferable: participation in two classroom trainings has mostly no
beneficial effects over participation in one classroom training in the second period only and participation in one classroom training followed by a One-Euro-Job has mostly no beneficial effects
over participation in a One-Euro-Job in the second period only. Moreover, immediately assigning
individuals to classroom training is more effective than waiting and assigning them to classroom
training in the second period (the effects of timing) because of the positive effects on avoiding UBII-receipt (work-test function). However, evidence for programme careers or stepwise integration
is only observed for the sequence of two classroom trainings versus the sequence of two periods of
UB-II-receipt.
221 Long-term care and labour market performance of welfare
recipients in Germany
Eva Kopf1 , Katrin Hohmeyer
Institut für Arbeitsmarkt- und Berufsforschung, Germany, [email protected]
SECTION: Labour Market and Social Security
Due to the demographic development, the demand for long-term care is increasing in the near future
in many developed countries. Furthermore in response to these demographic changes, the OECD
advised member countries to take measures to increase employment to ensure the sustainability
of the welfare state. Since the welfare reforms in Germany, welfare recipients were supposed to be
ready to work and help themselves to decrease or end the neediness of their household. However,
166
Statistische Woche 2015
15.-18. September, Hamburg
7% of the members of these households who receive welfare benefits are engaged in long-term care
of their relatives or friends in need of assistance. Their care responsibilities may interfere with
their job search. Our paper studies the relationship between care provision of welfare recipients
and their labour market performance. The direction of this relationship is not clear: on the one
hand, taking care of relatives can worsen labour market opportunities (e.g., because less time is
available for working). On the other hand, taking care of relatives can be the result of bad labour
market opportunities (e.g., individuals decide to take care of their relatives in need of assistance
because they do not work anyway). Furthermore, regarding welfare recipients it is also possible
that providing care will increase their labour market prospects (e.g., because they qualify for jobs
in the care sector). To shed light on this relationship, we study the labour market performance of
welfare recipients taking care of relatives. Our analyses are based on survey data from the Panel
Study Labour Market and Social Security and on panel methods.
222 Wohnsituation und -kosten in der Grundsicherung für
Arbeitsuchende zwischen Entspannung und Anspannung
Henning Schridde1
Statistik der Bundesagentur für Arbeit, Germany, [email protected]
SECTION: Labour Market and Social Security
Ein Zehntel aller Haushalte ist zur Sicherung ihrer Wohnungsversorgung auf Leistungen der Grundsicherung für Arbeitsuchende angewiesen. Kosten für Unterkunft und Heizung werden in der Grundsicherung für Arbeitsuchende in Höhe der tatsächlichen Aufwendungen anerkannt, soweit diese angemessen sind. Ob eine Wohnung angemessen ist, entscheidet sich nach den jeweiligen kommunalen
Richtlinien zur Angemessenheit der Wohnkosten. Dabei spielen neben der Größe der Bedarfsgemeinschaft die Größe und Ausstattung der Wohnung und die Höhe der Wohnkosten eine wichtige
Rolle. Die Lage auf den Wohnungsmärkten ist regional und kleinräumig sehr unterschiedlich. Insbesondere durch Einführung der Mietpreisbremse im Jahr 2015 ist die Situation auf angespannten
Wohnungsmärkten, wie z.B. in Hamburg in den Fokus der allgemeinen Aufmerksamkeit gerückt.
Die Frage ist daher, wie sich die Wohnkosten und die Wohnsituation von Bedarfsgemeinschaften in
der Grundsicherung für Arbeitsuchende entwickelt haben und wie sich darin die Lage am örtlichen
Wohnungsmarkt widerspiegelt?
223 Objective Bayesian inference for linear Gaussian random
coefficient regression with inhomogeneous within-class variances
Clemens Elster, Gerd Wübbeler1
Physikalische-Technische Bundesanstalt, Germany, [email protected]
SECTION: Statistical Theory and Methodology
We present an objective Bayesian inference for linear Gaussian random coefficient regression with
inhomogeneous within-class variances. The considered class of models includes the unbalanced
167
15.-18. September, Hamburg
Statistische Woche 2015
heteroscedastic one-way random effects model. We derive the Berger and Bernardo reference prior
when the means of the random coefficients form the parameters of interest, and we investigate
the properties of the resulting posterior. While the obtained reference prior is improper, propriety
of the resulting posterior is ensured under the condition that the number of classes is at least
two and the number of observations per class exceeds the number p of means of the random
coefficients. Furthermore, the marginal posterior for the means of the random coefficients has first
moments provided that the number of classes is at least three and the number of observations per
class exceeds p+1. Similarly, second moments exist when the number of classes is at least four
with more than p+2 observations per class. A simulation study is presented which investigates
the frequentist behavior of credible intervals under repeated sampling. The results suggest that
shortest 95% credible intervals appear to have roughly 95% coverage probability. Finally, results of
an application are presented.
224 Bayesian Estimation of a Proportional Hazards Model for
Doubly Censored Durations
Achim Dörre1 , Rafael Weißbach
Universität Rostock, Germany, [email protected]
SECTION: Statistical Theory and Methodology
Purpose: Doubly censored data consist of uncensored, left and right censored data and occur
frequently in survival time contexts. Bayes estimators of a parametric proportional hazards model
for random durations subject to double-censoring are investigated. In particular, we prove consistency and asymptotic normality of the Bayes estimators with respect to quadratic loss. In addition,
estimators of standard errors are derived. The proposed model is applied to rating class data from
a large German bank. Initial rating class effect and time effects for rating transitions are analysed.
Design and Methodology: Bayes estimators are implicitly defined as the minimizing argument
of expected loss with respect to the posterior distribution of the parameters. In the given setting, no
conjugate prior distribution is available. Therefore, the computation is performed by use of MCMC
algorithms for which logarithmic ratios of the posterior density are derived. A simulation study is
conducted in order to analyse the finite-sample performance in comparison to maximum likelihood
estimation.
Results and Practical Implications: It turns out that parametric Bayes estimators and confidence intervals can be derived in a consistent manner and are asymptotically normal. Their performance in finite samples is satisfying and does not require asymptotic justifications. It is argued
that the proposed Bayes estimators are a reasonable alternative to maximum likelihood estimation
for small and moderate sample size.
225 Extreme value analysis for elliptical distributions and their
generalizations
Miriam Isabel Seifert1
168
Statistische Woche 2015
15.-18. September, Hamburg
Helmut Schmidt University Hamburg, Germany, [email protected]
SECTION: Statistical Theory and Methodology
The conditional extreme value (CEV) models offer an effective approach for studying the asymptotics of random vectors (X, Y ). The aim is to find the limiting conditional distribution of (X, Y ) as
the conditioning variable X becomes large. According to this CEV approach, elliptical distributions
have been intensively investigated, in particular in a polar representation R · (u(T ), v(T )) where
the level curve (u(t), v(t)) is elliptical.
We present interesting generalizations of the existing conditional limit theorems into different directions:
• The function u may have several global maxima instead of only one.
• The level curve (u(t), v(t)) does not have to be convex any longer.
In the latter case, the usual method of CEV leads to a degenerate limit. But we can obtain a
non-degenerate limit theorem using “random norming”.
We interpret our ideas and results geometrically, in particular in terms of the corresponding level
curves.
226 Singular Inverse Wishart Distribution with Application to
Portfolio Theory
Taras Bodnar, Stepan Mazur1 , Krzysztof Podgorski
Lund University, Sweden, [email protected]
SECTION: Statistical Theory and Methodology
The inverse of the standard estimate of covariance matrix is frequently used in the portfolio
theory to estimate the optimal portfolio weights. For this problem, the distribution of the linear
transformation of the inverse is needed. We obtain this distribution in the case when the sample
size is smaller than the dimension, the underlying covariance matrix is singular, and the vectors
of returns are independent and normally distributed. For the result, the distribution of the inverse
of covariance estimate is needed and it is derived and referred to as the singular inverse Wishart
distribution. We use these results to provide an explicit stochastic representation of an estimate of
the mean-variance portfolio weights as well as to derive its characteristic function and the moments
of higher order.
227 Modeling of crack propagation in different steel specimens
with stochastic differential equations by using trimmed likelihoods
Stefan Meinke1
Technische Universität Dortmund, Germany, [email protected]
SECTION: Nonparametric and Robust Statistics
Understanding the propagation of cracks in metallic compositions during fatigue experiments can
169
15.-18. September, Hamburg
Statistische Woche 2015
help to analyze its life time. In this context cyclic tension-compression fatigue tests are performed
on two identical steel specimens under different stress levels.
The data results from images of the specimens recorded at different numbers of cyclic tensions and
compressions. To extract cracks from these records, techniques in area of pattern recognition are
used. Based on the detected cracks, trajectories of the largest cracks in time are identified. The
resulting crack growth curves in both specimens are then modeled as stochastic processes. Due to
different qualities of the images, potential outliers in the crack growth curves are apparent.
We analyze these crack growth curves by using multiple stochastic differential equations. On the
basis of these results we test whether the stress level has a significant influence on the crack
propagation. By reason of the outliers we propose the usage of trimmed likelihoods in order to
achieve a reliable estimation.
228 Nonparametric estimation of replacement rates
Nora Dörmann1
Goethe-Universität, Germany, [email protected]
SECTION: Nonparametric and Robust Statistics
Consider a sequence of random variables representing lifetimes of articles being renewed. The goal
is to estimate the replacement rate 1/µ where µ stands for the expected lifetime of an article.
The variables are assumed to be non-negative and identically distributed; they may be dependent
and the common underlying distribution is unknown. As maximum likelihood methods are not
applicable, the method for moments is implemented. But this method is not suitable for derivation of
corresponding moments. Therefor the delta method for determination of moments and independent
random variables is generally preferred. But, in either case, strict requirements on the boundedness
of the function or its derivatives need to be fulfilled. As the rate of replacement is a reciprocal
function, this method can neither be chosen.
Meanwhile and in contrast to the literature, Weba and Dörmann (1) show that the delta method
is valid for a broader class of functions. Provided mild requirements upon the global growth of f are
met, also functions where the function itself or all its derivatives are unbounded may be considered.
Moreover, a quantitative version of the weak law of large numbers is sufficient and necessary for
the approximation of f and the expansion of its moments. Furthermore, observations are allowed
to be dependent and no assumptions on their distributions are required.
It is the purpose to apply this method on reciprocal functions of renewal theory dependent
on µ with dependent observations. Moreover, numerical examples and results of simulations are
presented.
1. M. Weba and N. Dörmann (2014). The delta method for moments when observations are dependent. Working Paper.
229 Multiple Bandwidth Selection for Smoothing Sparse
Functional Data with Covariate Adjustment
170
Statistische Woche 2015
15.-18. September, Hamburg
Dominik Liebl1
Uni Bonn, Germany, [email protected]
SECTION: Nonparametric and Robust Statistics
This paper deals with the problem of estimating the covariate adjusted mean and covariance
function from functional time series data. Similarly to the case of longitudinal or sparse functional
data, it is assumed that only the noisy discretization points of the functional data are observable.
Though, in contrast to the usual assumption in the context of sparse functional data, the amount
of discretization points per function is allowed to diverge with the number of functions.
Our focus lies upon the multiple bandwidth selection problem for the multivariate local linear estimators of the covariate adjusted mean and covariance function, which is found to be real
problem for typical data sizes in practice. We show that already for a slowly diverging number of
discretization points per function, the multivariate local linear estimators attain convergence rates
that are typically found for univariate nonparametric estimators. This property is used to propose a hybrid bandwidth selection procedure, which combines the advantages of easily applicable
rules-of-thumb procedures and cross-validation.
The finite sample performance of the hybrid bandwidth selection procedure is shown in a simulation study and its applicability is demonstrated by a real data study on the analysis of the price
effects of Germany’s abrupt nuclear phase out after the nuclear disaster in Fukushima in mid-March
2011.
171
15.-18. September, Hamburg
Statistische Woche 2015
Teilnehmer – Participants:
Abbas, Sermad, Technische Universität Dortmund, [email protected]
Abdulmannan, Hawazen Ibrahim, King Saud Bin Abdulaziz University for Health Sciences, [email protected]
Abel, Falk, Stadt Leipzig, [email protected]
Ambach, Daniel, Europa-Universität Viradrina, [email protected]
Amend, Elke, Bundesagentur für Arbeit, [email protected]
Amsbeck, Hannah, Bertelsmann Stiftung, [email protected]
Annuss, Rolf, LZG.NRW, [email protected]
Asselborn, Herbert, Stadt Köln, [email protected]
Bader, Julia, Wirtschaftskammer Wien, [email protected]
Bayer, Sebastian, Universität Konstanz, [email protected]
Beck, Martin, Statistisches Bundesamt, [email protected]
Becker, Anette, Stadtverwaltung Chemnitz, [email protected]
Behmann, Mathias, Stadtmagistrat Innsbruck, [email protected]
Beier, Rafael, Deutsche Bundesbank, [email protected]
Berger, Theo, University of Bremen, [email protected]
Birke, Melanie, Universität Bayreuth, [email protected]
Birner, Nadine, VDI/VDE Innovation + Technik GmbH, [email protected]
Bodnar, Taras, Stockholm University, [email protected]
Bodnar, Olha, Physikalisch-Technische Bundesanstalt, [email protected]
Bömermann, Hartmut, Amt für Statistik Berlin-Brandenburg, [email protected]
Bork, Beate, Statistisches Bundesamt, [email protected]
Borozdina, Olga, Goethe-Universität Frankfurt am Main, [email protected]
Braakmann, Albert, Statistisches Bundesamt, [email protected]
Bräuer, Anne, Landeshauptstadt Dresden, [email protected]
Breuer, Hermann, Satdt Köln, Amt für Stadtentwicklung und Statistik, [email protected]
Breunig, Christoph, Humboldt-Universität zu Berlin, [email protected]
Brugger, Pia, Statistisches Bundesamt, [email protected]
Brümmerhoff, Dieter, Uni Rostock, [email protected]
172
Statistische Woche 2015
15.-18. September, Hamburg
Bubik, Michael, Ministerium für Finanzen und Wirtschaft Baden-Württemberg, [email protected]
Bucchia, Béatrice, Universität zu Köln, [email protected]
Buscher, Lioba, Landeshauptstadt Dresden, [email protected]
Buschle, Nicole-Barbara, Statistisches Bundesamt, [email protected]
Büttner, Thomas, Bundesagentur für Arbeit, [email protected]
Butucea, Cristina, University Paris-Est Marne-la-Vallee, [email protected]
Chang, Youngjae, Korea National Open Univ., [email protected]
Chau, Joris, Université Catholique de Louvain, [email protected]
Chlumsky, Jürgen, Statistisches Bundesamt, [email protected]
Christensen, Björn, Fachhochschule Kiel, [email protected]
Crößmann, Anja, Statistisches Bundesamt, [email protected]
Cuevas, Antonio, Universidad Autónoma de Madrid, [email protected]
Daube, Matthias, Thüringer Landesamt für Statistik, [email protected]
Delfs, Silke, Bundesagentur für Arbeit, [email protected]
Demetrescu, Matei, CAU Kiel, [email protected]
Dengler, Katharina, Institut für Arbeitsmarkt- und Berufsforschung, [email protected]
Dennis, Emily Beth, University of Kent, [email protected]
DeRuiter, Stacy Lynn, Calvin College, [email protected]
Dick, Joscha, Stadt Köln, [email protected]
Diefenbacher, Hans, Universität Heidelberg, Alfred-Weber-Institut/FEST, [email protected]
Dignat, Leonia, Bundesagentur für Arbeit, [email protected]
Dimitriadis, Timo, Universität Konstanz, [email protected]
Dittrich, Stefan, Statistisches Bundesamt, [email protected]
Dmytriv, Solomiia, Europa-Universität Viadrina, [email protected]
Döring, Maik, Universität Hohenheim, [email protected]
Dörmann, Nora, Goethe-Universität, [email protected]
Dörre, Achim, Universität Rostock, [email protected]
Dunker, Fabian, Ruhr-Universität Bochum, [email protected]
Dürre, Alexander, TU Dortmund, [email protected]
Dyckerhoff, Rainer, Universität zu Köln, [email protected]
173
15.-18. September, Hamburg
Statistische Woche 2015
Eckelt, Jan-Peter, Statistisches Landesamt Baden-Württemberg, [email protected]
Eckley, Idris, Lancaster University, [email protected]
Ehling, Manfred, Destatis, [email protected]
Eichhorn, Lothar, Landesamt für Statistik Niedersachsen, [email protected]
Eichhorn, Tanja, Landesamt für Statistik Niedersachsen, [email protected]
Eisenmenger, Matthias, Statistisches Bundesamt, [email protected]
Elster, Clemens, Physikalisch-Technische Bundesanstalt, [email protected]
Enderlein, Ralf, Statistisches Amt für Hamburg und Schleswig-Holstein, [email protected]
EPLER, Margit, Österreichische Statistische Gesellschaft, [email protected]
Eppmann, Helmut, Statistikamt Nord, [email protected]
Erdmann, Thorsten, Statistikamt Nord, [email protected]
Fasso’, Alessandro, University of Bergamo, [email protected]
Feßler, Erik, Stadt Göttingen, [email protected]
Filzmoser, Peter, Vienna University of Technology, [email protected]
Fink, Anne, Deutsches Zentrum für Neurodegenerative Erkrankungen e.V., [email protected]
Fischer, Hans-Josef, Information und Technik Nordrhein-Westfalen, [email protected]
Fischer, Christoph, Statistisches Landesamt Baden-Württemberg, [email protected]
Fischer, Rose-Marie, Fujitsu TDS GmbH, [email protected]
Fleischer, Karlheinz, Philipps-Universität Marburg, [email protected]
Floro, Danvee, University of Kiel, [email protected]
Förster, Manuel, Johannes Gutenberg-Universität, [email protected]
Förster, Matthias, Landeshauptstadt Potsdam, [email protected]
Frey, Christoph, Universität Konstanz, [email protected]
Freyermuth, Jean-Marc, University of Cambridge, [email protected]
Frisch, Marion, Bayerisches Landesamt für Statistik, [email protected]
Fürnrohr, Michael, Bayerisches Landesamt für Statistik, [email protected]
Gabler, Siegfried, Gesis, [email protected]
Gabriel, Horst, Bundesagentur für Arbeit, [email protected]
Garcia Diez, Susana, Statistisches Bundesamt, [email protected]
Geerdes, Katja, Dt. Kinder- und Jugendstiftung, [email protected]
174
Statistische Woche 2015
15.-18. September, Hamburg
Germakowsky, Gerd, Stadt Witten, [email protected]
Gerstenberger, Carina, Ruhr-Universität Bochum, [email protected]
Gertheiss, Jan, Georg-August-Universität Göttingen, [email protected]
Giovannini, Enrico, Rome University,
Glaser, Stephanie, Universität Hohenheim, [email protected]
Glass, Katharina, Universität Hamburg, [email protected]
Gleich, Andreas, Stadt Augsburg, [email protected]
Göddecke-Stellmann, Jürgen, Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR), [email protected]
Golosnoy, Vasyl, Ruhr-Universität Bochum, [email protected]
Gönsch, Iris, Statistisches Bundesamt, [email protected]
Gottschalk, Sandra, Zentrum für Europäische Wirtschaftsforschung (ZEW) GmbH, [email protected]
Götz, Eva, Bayerisches Staatsministerium für Wirtschaft, [email protected]
Götz, Katharina, IT.NRW, [email protected]
Grömling, Michael, Institut der deutschen Wirtschaft Köln, [email protected]
Groß, Jürgen, Otto-von-Guericke-Universität Magdeburg, [email protected]
Gruber, Stefan, Statistisches Bundesamt, [email protected]
Grünewald, Werner, Europäische Kommission - Generaldirektion für Übersetzung, [email protected]
Gutfleisch, Ralf, Stadt Frankfurt a.M., [email protected]
Habla, Heike, Statistisches Bundesamt, [email protected]
Haesbroeck, Gentiane, University of Liège, [email protected]
Hahn, Rainer, Bundesagentur für Arbeit, [email protected]
Hanke, Bernd, Bundesministerium der Finanzen, [email protected]
Hänsel, Kerstin, Destatis, [email protected]
Harms, Torsten, DHBW Karlsruhe, [email protected]
Hartmann, Michael, Bundesagentur für Arbeit, [email protected]
Haupt, Harry, Universität Passau, [email protected]
Haußmann, Michael, LHS Stuttgart, [email protected]
Heckel, Christiane, BIK ASCHPURWIS + BEHRENS GmbH, [email protected]
Heiden, Moritz, Universität Augsburg, [email protected]
Heiler, Phillip, Universität Konstanz, [email protected]
175
15.-18. September, Hamburg
Statistische Woche 2015
Heilmann, Harald, Stadt Neumünster, [email protected]
Heuser, Christoph, Universität zu Köln, [email protected]
Hillmann, Benjamin, Christian-Albrechts-Universität zu Kiel, [email protected]
Hinterlang, Natascha, Goethe Universität Frankfurt, [email protected]
Hirner, Stephanie, Statistisches Bundesamt, [email protected]
Hirsch, Tristan, Leibniz Universität Hannover, [email protected]
Hofer, Vera, Universität Graz, [email protected]
Hoffmann, Elke, Deutsches Zentrum für Altersfragen, DZA, [email protected]
Hollweck, Sabrina, Bundesagentur für Arbeit, [email protected]
Holzmann, Hajo, Philipps-Universität Marburg, [email protected]
Homburg, Annika, Helmut-Schmidt-Universität, [email protected]
Hoops, Christian, Ipsos Public Affairs, [email protected]
Hötger, Udo, Kreis Lippe - Der Landrat, [email protected]
Hower, Kira, Universität Bielefeld, [email protected]
Hübler, Olaf, Leibniz Universität Hannover, [email protected]
Hüning, Wolfgang, Information und Technik Nordrhein-Westfalen, [email protected]
Ihden, Tanja, Universität Bremen, [email protected]
Iwanow, Irene, Leibniz-Institut für ökologische Raumentwicklung, [email protected]
Jacobi, Lucas, Landeshauptstadt Stuttgart, Statistisches Amt, [email protected]
Jäger, Solveigh, BDI, [email protected]
Jäger, Armin, Bundesagentur für Arbeit, [email protected]
Jansen, Christoph, Institut für Statistik, LMU München, [email protected]
Jarawka, Markus, Landeshauptstadt Magdeburg, [email protected]
Jentsch, Carsten, Universität Mannheim, [email protected]
Johannes, Jan, Crest-Ensai and Université catholique de Louvain, [email protected]
Jonen, Alexander, Helmut-Schmidt-Universität Hamburg, [email protected]
Jones-Todd, Charlotte Moragh, St Andrews University, [email protected]
Kabel, Gunda, Bundesagentur für Arbeit, [email protected]
Kahle, Waltraud, Otto-von-Guericke Universität Magdeburg, [email protected]
Kaiser, Andreas, Freie und Hansestadt Hamburg, Behörde für Stadtentwicklung und Wohnen, [email protected]
176
Statistische Woche 2015
15.-18. September, Hamburg
Kamgar, Saeideh, Allameh Tabataba’i University of IRAN, [email protected]
Kappus, Johanna, Universität Rostock, [email protected]
Kaselowsky, Jürgen, SAS Institute GmbH, [email protected]
Kastner, Marc, Fachhochschule Köln, [email protected]
Kauermann, Göran, Ludwig-Maximilians-Universitaet, [email protected]
Käuser, Stefanie, Statistisches Bundesamt, [email protected]
Kawka, Rafael, Technische Universität Dortmund, [email protected]
Kiel, Walter, Hochschule Ansbach, [email protected]
Kiesl, Hans, OTH Regensburg, [email protected]
Kladroba, Andreas, Stifterverband für die Deutsche Wissenschaft, [email protected]
Klauenberg, Katy, Physikalisch-Technische Bundesanstalt, [email protected]
Klößner, Stefan, Universität des Saarlandes, [email protected]
Klostermann, Tobias, Statistisches Landesamt Baden-Württemberg, [email protected]
Knape, Jonas, Swedish University of Agricultural Sciences, [email protected]
Knauth, Bettina, Eurostat, [email protected]
Knop, Cathrin, Stadtverwaltung Frankfurt (Oder), [email protected]
Knoth, Sven, Helmut Schmidt University Hamburg, [email protected]
Konrad, Anne, Universität Trier, [email protected]
Kopf, Eva, Institut für Arbeitsmarkt- und Berufsforschung, [email protected]
Körber, Julian, Otto-Friedrich Universität Bamberg, [email protected]
Korn, Claudia, Bundesagentur für Arbeit, [email protected]
Körner-Blätgen, Nadine, BBSR, [email protected]
Kösler, Markus, Universität Köln, [email protected]
Kraft, Volker, SAS Institute GmbH, [email protected]
Krämer, Walter, TU Dortmund, [email protected]
Kraus, Petra, Hauptverband der Deutschen Bauindustrie e.V., [email protected]
Krause, Joscha, Universität Trier, [email protected]
Krause, Anja, Statistisches Bundesamt, [email protected]
Kretschmann, Hans-Dieter, Statistisches Landesamt des Freistaates Sachsen, [email protected]
Krüger, Jonas, Institut für Arbeitsmarkt- und Berufsforschung, [email protected]
177
15.-18. September, Hamburg
Statistische Woche 2015
Krumbholz, Wolf, HSU Hamburg, [email protected]
Krumbholz-Mai, Sigrid, Statistisches Amt für Hamburg und Schleswig-Holstein, [email protected]
Kück, Heidemarie, Bundesagentur für Arbeit, [email protected]
Kühn, Aiko, Universität Trier, [email protected]
Kuhnt, Sonja, FH Dortmund, [email protected]
Kunadt, Susann, Stadt Köln, Amt für Stadtentwicklung und Statistik, [email protected]
Labes, Gabriele, Stadt Ratingen, [email protected]
Lagona, Francesco, University Roma Tre, [email protected]
Landsberg, Helma, Statistikamt Nord, [email protected]
Lange, Tatjana, HS Merseburg, [email protected]
Langrock, Roland, University of St Andrews, [email protected]
Lauer, Alexandra, Universität des Saarlandes, [email protected]
Lazariv, Taras, European University Viadrina, [email protected]
Leist, Sebastian, Institut für Bildungsmonitoring und Qualitätsentwicklung (BSB/FHH), [email protected]
Lenz, Jürgen, Kreis Mettmann, [email protected]
Leschinski, Christian, Leibniz Universität Hannover, [email protected]
Liboschik, Tobias, Technische Universität Dortmund, [email protected]
Liebl, Dominik, Uni Bonn, [email protected]
Liebscher, Steffen, Martin-Luther-Universität Halle-Wittenberg, [email protected]
Liesenfeld, Roman, Universität zu Köln, [email protected]
Liffers, Lutz, Dt. Kinder- und Jugendstiftung, [email protected]
Lillo, Rosa E., Universidad Carlos III de Madrid, [email protected]
Lüdering, Jochen, Universtät Gießen, [email protected]
Lux-Henseler, Barbara, Stadt Nürnberg, [email protected]
Mai, Christoph-Martin, Statistisches Bundesamt, [email protected]
Maier, Verena, Institut für Statistik LMU München, [email protected]
Manner, Hans, Universität zu Köln, [email protected]
Mannschreck, Moritz, Statistisches Bundesamt, [email protected]
Mareckova, Jana, Universität Konstanz, [email protected]
Martone, Olivia, IT.NRW als Statistisches Landesamt, [email protected]
178
Statistische Woche 2015
15.-18. September, Hamburg
Mausfeld, Juliana, Statistikamt Nord, [email protected]
Mazur, Stepan, Lund University, [email protected]
McCrea, Rachel Sara, University of Kent, [email protected]
Meer, Uwe, Stadt Wolfsburg, [email protected]
Mehrhoff, Jens, Deutsche Bundesbank, [email protected]
Meier, Alexander, KIT, [email protected]
Meinfelder, Florian, Universität Bamberg, [email protected]
Meinke, Stefan, Technische Universität Dortmund, [email protected]
Meinken, Holger, Bundesagentur für Arbeit, [email protected]
Meister, Alexander, Universität Rostock, [email protected]
Mertel, Bettina, Statistisches Bundesamt, [email protected]
Merz, Joachim, Leuphana Universität Lüneburg, [email protected]
Messer, Michael, Goethe Uni Frankfurt, [email protected]
Methner, Eckart, ehemals Landesamt für Statistik Niedersachsen, [email protected]
Michel, Nicole, Statistisches Landesamt Baden-Württemberg, [email protected]
Michelot, Théo, INSA de Rouen, [email protected]
Missong, Martin, Universität Bremen, [email protected]
Mittag, Hans-Joachim, FernUniversität Hagen, [email protected]
Mohr, Maria, Universität Hamburg, [email protected]
Möller, Tobias, Helmut-Schmidt-Universität, [email protected]
Möller, Annette, University of Göttingen, [email protected]
Morais, Manuel Cabral, Instituto Superior Técnico, [email protected]
Morozova, Anastasia, University of Konstanz, [email protected]
Mosler, Karl, Universität zu Köln, [email protected]
Mozharovskyi, Pavlo, Universität zu Köln, [email protected]
Mühlenhaupt, Jörg, IT.NRW, [email protected]
Müller, Christine, TU Dortmund, [email protected]
Müller, Sebastian Christoph, Universität Kiel, [email protected]
Müller, Christian, DAAD, [email protected]
Münnich, Ralf, Universität Trier, [email protected]
179
15.-18. September, Hamburg
Statistische Woche 2015
Muscheid, Jörg, Arbeitnehmerkammer Bremen, [email protected]
Naeve, Eyk-Röttger, Landeshauptstadt Kiel, [email protected]
Neuber-Pohl, Caroline, Bundesinstitut für Berufsbildung, [email protected]
Neuberg, Richard, Columbia University, [email protected]
Neudecker, Klaus, Stadt Regensburg, [email protected]
Neumeyer, Natalie, Universität Hamburg, [email protected]
Neureiter, Karin, Land Kärnten, [email protected]
Neutze, Michael, Statistisches Bundesamt, [email protected]
Niebuhr, Tobias, Universität Hamburg, [email protected]
Nieto-Reyes, Alicia, Universidad de Cantabria, [email protected]
Noll, Susanne, Bundesagentur für Arbeit, BA-Service-Haus, [email protected]
Nowossadeck, Enno, Robert Koch-Institut, [email protected]
Oemmelen, Guido, microm Micromarketing-Systeme und Consult GmbH, [email protected]
Okhrin, Yarema, Universität Augsburg, [email protected]
Okhrin, Ostap, TU Dresden, [email protected]
Oltmanns, Erich, Statistisches Bundesamt, [email protected]
Ombao, Hernando, University of California, Irvine, [email protected]
Orth, Anja Katrin, Institut der deutschen Wirtschaft, [email protected]
Otto, Philipp, Europa-Universität Viadrina, [email protected]
Oezsahin, Ersin, LH Wiesbaden, [email protected]
Page, Roman, Statistisches Amt des Kantons Zürich, [email protected]
Pape, Markus, Ruhr-Universität Bochum, [email protected]
Parolya, Nestor, Leibniz Universität Hannover, [email protected]
Parusel, Verena, Bayerisches Landesamt für Statistik, [email protected]
Pauger, Daniela, Johannes Kepler Universität Linz, [email protected]
Plagens, Manfred, Stadt Würzburg, [email protected]
Plennert, Matthias, Friedrich-Alexander Universität Erlangen-Nürnberg, [email protected]
Pohlmeier, Winfried, University of Konstanz, [email protected]
Pokotylo, Oleksii, Universität zu Köln, [email protected]
Polunchenko, Aleksey, State University of New York at Binghamton, [email protected]
180
Statistische Woche 2015
15.-18. September, Hamburg
Proksch, Katharina, Universität Siegen, [email protected]
Raab, Stefanie, Statistisches Bundesamt, [email protected]
Rabyk, Liubov, European University Viadrina Frankfurt (Oder), [email protected]
Racine, Jeffrey S., McMaster University, [email protected]
Rader, Roman, Ukrainische Technische Nationaluniversität Kiew - KPI, [email protected]
Rameseder, Stefan, Universität Regensburg, [email protected]
Rasner, Anika, Bundeskanzleramt, [email protected]
Rässler, Susanne, Universität Bamberg, [email protected]
Reckrühm, Kerstin, Otto-von-Guericke-Universität Magdeburg, Institut für Mathematische Stochastik, [email protected]
Reh, Gerd, Statistisches Landesamt Rheinland-Pfalz, [email protected]
Rehage, André, TU Dortmund, [email protected]
Reinhold, Maria, Czaia Marktforschung GmbH, [email protected]
Rendtel, Ulrich, FU Berlin, [email protected]
Rengers, Martina, Statistisches Bundesamt, [email protected]
Renn, Sandra, Bundesagentur für Arbeit, [email protected]
Richter, Josef, Universität Innsbruck, [email protected]
Riede, Thomas, Statistisches Bundesamt, [email protected]
Rinke, Saskia, Leibniz Universität Hannover, [email protected]
Rinn, Maren, Bundesagentur für Arbeit, [email protected]
Rockmann, Ulrike, Senatsverwaltung für Inneres und Sport Berlin, [email protected]
Rodenhäuser, Dorothee, FEST e. V. Institut für interdisziplinäre Forschung Heidelberg, [email protected]
Rohde, Johannes, Leibniz Universität Hannover, [email protected]
Rohde, Andreas, Bundesagentur für Arbeit, [email protected]
Rohrmüller, Robert, Wirtschaftskammer Niederösterreich, [email protected]
Römer, Ellen, Destatis, [email protected]
Rommel, Alexander, Robert Koch-Institut, [email protected]
Romo, Juan, Universidad Carlos III de Madrid, [email protected]
Rosenthal, Philip, Universität Trier, [email protected]
Roß, Hermann, Bundesagentur für Arbeit, [email protected]
181
15.-18. September, Hamburg
Statistische Woche 2015
Rothe, Christoph, ,
Rupp, Martin, Universität Trier, [email protected]
Salish, Nazarii, University of Bonn, [email protected]
Sauerbrey, Lars, Bundesagentur für Arbeit, [email protected]
Schäfer, Josef, Information und Technik Nordrhein-Westfalen, [email protected]
Schäfer, Wolf, Amt für Stadtforschung und Statistik für Nürnberg und Fürth, [email protected]
Schaff, Angela, Statistisches Bundesamt, [email protected]
Schäfstoß, Nicolas, BMUB, [email protected]
Scharfe, Simone, Statistisches Bundesamt, [email protected]
Schefzik, Roman, HITS gGmbH, [email protected]
Schell, Dieter, Universität Konstanz, [email protected]
Schellhase, Christian, Universität Bielefeld, [email protected]
Schels, Helmut, Stadt Ingolstadt, [email protected]
Scheuchenpflug, Thomas, Landeshauptstadt München, [email protected]
Schieck, Matthias, Stadt Chemnitz, [email protected]
Schmerbach, Sibylle, HU Berlin, [email protected]
Schmid, Wolfgang, Europa-Universität, [email protected]
Schmidt, Peter, Statistisches Bundesamt, [email protected]
Schmidt, Arne, Statistisches Bundesamt, [email protected]
Schmidt, Ruth, Stadt Leipzig, [email protected]
Schmidt, Bernd, Statistisches Bundesamt, [email protected]
Schmidt, Rolf, Landesbetrieb Information und Technik Nordrhein-Westfalen (IT.NRW), [email protected]
Schmidtke, Kerstin, Forschungsdatenzentren der Statistischen Ämter der Länder, [email protected]
Schmitz, Rose, Bundesagentur für Arbeit, [email protected]
Schmitz-Veltin, Ansgar, Landeshauptstadt Stuttgart, [email protected]
Schnackenburg, André, Statistikamt Nord, [email protected]
Schneeweiß, Hans, LMU München, [email protected]
Schnegelsberg, Lisiane, Martin-Luther-Universität Halle-Wittenberg, [email protected]
Schneid, Sebastian, Amt für Statistik und Stadtforschung Augsburg, [email protected]
Schneider, Max, Universität Potsdam, [email protected]
182
Statistische Woche 2015
15.-18. September, Hamburg
Schneider, Gaby, Goethe University Frankfurt, [email protected]
Schnorr-Bäcker, Susanne, Statistiches Bundesamt, [email protected]
Schnurbus, Joachim, Universität Passau, [email protected]
Schöb, Anke, Statistisches Amt, [email protected]
Scholz, Michael, Karl-Franzens Universität Graz, [email protected]
Schomaker, Christine, Statistik der Bundesagentur für Arbeit, [email protected]
Schönfeld, Frederike, Statistisches Bundesamt, [email protected]
Schreiner, Carsten, Statistisches Bundeamt, [email protected]
Schridde, Henning, Statistik der Bundesagentur für Arbeit, [email protected]
Schrödter, Dietmar, Statistikamt Nord, [email protected]
Schueler, Thomas, HSU/UniBw H, [email protected]
Schulmeyer, Rudolf, VDSt Geschäftsstelle Köln, [email protected]
Schulte Nordholt, Eric, Statistics Netherlands, [email protected]
Schultz, Andrea, Stadt Leipzig, [email protected]
Schüssler, Rainer, Helmut-Schmidt University, [email protected]
Schwabbacher, Wolfram, Deutsche Gesetzliche Unfallversicherung e.V., [email protected]
Schwarz, Norbert, Statistisches Bundesamt, [email protected]
Schweinert-Albinus, Stefan, Statistisches Bundesamt, [email protected]
Scislo, Christine, Stadt Eisenhüttenstadt, [email protected]
Seehase, Anne, Amt für Statistik, Magdeburg, [email protected]
Segaert, Pieter, KU Leuven, [email protected]
Seidel, Gerald, Bundesagentur für Arbeit, [email protected]
Seidel, Christiane, Statistisches Landesamt Baden-Württemberg, [email protected]
Seifert, Stefanie, Universität Tübingen, [email protected]
Seifert, Miriam Isabel, Helmut Schmidt University Hamburg, [email protected]
Seiler, Christian, ifo Institut-Leibniz Institut für Wirtschaftsforschung, [email protected]
Sibbertsen, Philipp, Leibniz Universität Hannover, [email protected]
Sittler, Loring, Generali Deutschland Holding AG, [email protected]
Söllner, René, Statistisches Bundesamt, [email protected]
Sommer, Andreas, RWTH Aachen, [email protected]
183
15.-18. September, Hamburg
Statistische Woche 2015
Spandel, Michael, Amt für Statistik Magdeburg, [email protected]
Speich, Wolf-Dietmar, Statistisches Landesamt des Freistaates Sachsen, [email protected]
Stäglin, Reiner, DIW Berlin, [email protected]
Stärk, Doris, Statistisches Bundesamt, [email protected]
Steland, Ansgar, RWTH Aachen, [email protected]
Stephan, Andreas, Jönköping International Business School, [email protected]
Stöhr, Christina, Otto-von-Guericke Universität Magdeburg, [email protected]
Strohe, Hans Gerhard, Uniwersytet Opolsky, [email protected]
Strohner, Benjamin, Universität Rostock, [email protected]
Sturm, Gabriele, BBSR - Bundesinstitut für Bau-, Stadt- und Raumforschung, [email protected]
Stypka, Oliver, Technische Universität Dortmund, [email protected]
Suter, Flavia, Institut für Bildungsmonitoring und Qualitätsentwicklung, BSB, FHH, [email protected]
Syuhada, Khreshna, Institut Teknologi Bandung, [email protected]
Szugat, Sebastian, Technische Universität Dortmund, [email protected]
Tadjuidje Kamgaing, Joseph, University of Heidelberg, [email protected]
Thalheimer, Frank, Statistisches Landesamt Baden-Württemberg, [email protected]
Then, Ralf, Stadt Nürnberg, [email protected]
Thiemichen, Stephanie, LMU München, [email protected]
Thomsen, Ulrich, Institut fuer Arbeitsmarkt- und Berufsforschung (IAB), [email protected]
Tietje, Hendrik, Statistikamt Nord, [email protected]
Titova, Anna, Christian-Albrechts-Universität zu Kiel, [email protected]
Tobies, Stephanie, Statistisches Bundesamt, [email protected]
Torgovitski, Leonid, Mathematisches Institut der Universität zu Köln, [email protected]
Trabs, Mathias, Humboldt-Universität zu Berlin, [email protected]
Tschernig, Rolf, Universität Regensburg, [email protected]
Unger, Rainer, SOCIUM Forschungsinstitut Ungleichheit und Sozialpolitik, [email protected]
Vatter, Yvonne, Statistisches Bundesamt, [email protected]
Vencalek, Ondrej, Palacky University in Olomouc, [email protected]
Venghaus, Jürgen, Stadt Herne - Statistikstelle, [email protected]
Victor, Hubert, Stadt Düren, [email protected]
184
Statistische Woche 2015
15.-18. September, Hamburg
Virbickaite, Audrone, University of Konstanz, [email protected]
Vogel, Alexander, Statistikamt Nord, [email protected]
Vogler, Jan, Universität Köln, [email protected]
vom Sondern, Manfred, Stadt Gelsenkirchen, [email protected]
von der Heyde, Christian, ARGE ADM-Stichproben, [email protected]
von Oppeln-Bronikowski, Sibylle, Statististisches Bundesamt, [email protected]
von Sachs, Rainer, Université catholique de Louvain, [email protected]
Wagner, Martin, Technische Universität Dortmund, [email protected]
Wagner, Joachim, Universität Lüneburg, [email protected]
Walla, Florian, Uni Konstanz, [email protected]
Weber, Silke, Karlsruher Institut für Technologie (KIT), [email protected]
Wegener, Christoph, Center for Risk and Insurance, [email protected]
Weiß, Christian, Helmut-Schmidt-Universität Hamburg, [email protected]
Weißbrodt, Thomas, Bundesagentur für Arbeit, [email protected]
Wendler, Martin, Erst-Moritz-Arndt-Universität Greifswald, [email protected]
Wenzel, Jürgen, Landeshauptstadt Mainz, [email protected]
Werner, Andrea, Bundesagentur für Arbeit, [email protected]
Westphal, Christian, , [email protected]
Wiechers, Ralph, VDMA, [email protected]
Wiese, Kathrin, BIK Aschpurwis + Behrens GmbH, [email protected]
Wilke, Jürgen, ehemals GESIS Köln, [email protected]
Will, Michael, Institut für Statistik Leibniz Universität Hannover, [email protected]
Wilrich, Peter-Th., Freie Universität Berlin, [email protected]
Winck, Gerhardt, Statistikamt Nord, [email protected]
Wittig, Jürgen, Magistrat der Stadt Kassel, [email protected]
Wohlfahrt, Sven, Statistikamt Nord, [email protected]
Woodall, Bill, VirginiaTech University,
Woste, Andreas, Bundesagentur für Arbeit, [email protected]
Wübbeler, Gerd, Physikalische-Technische Bundesanstalt, [email protected]
Wyrwoll, Jana, Bundesagentur für Arbeit, [email protected]
185
15.-18. September, Hamburg
Statistische Woche 2015
Zagidullina, Aygul, University of Konstanz, [email protected]
Zemann, Christian, Bundesagentur für Arbeit, [email protected]
Zeng, Jing, University of Konstanz, [email protected]
Ziel, Florian, Europa-Universität Viadrina, [email protected]
Zipse, Christian, Statistisches Bundesamt, [email protected]
186

Documentos relacionados