BOOK OF ABSTRACTS STATISTISCHE WOCHE
Transcrição
BOOK OF ABSTRACTS STATISTISCHE WOCHE
BOOK OF ABSTRACTS STATISTISCHE WOCHE 15.–18. September 2015 Hamburg www.statistische-woche.de Organizers: Deutsche Statistische Gesellschaft (DStatG) Verband Deutscher Städtestatistiker (VDSt) Deutsche Gesellschaft für Demographie Address: Fakultät für Wirtschafts- und Sozialwissenschaften Helmut-Schmidt-Universität, Universität der Bundeswehr Hamburg Holstenhofweg 85 22043 Hamburg. Statistische Woche 2015 15.-18. September, Hamburg STATISTISCHE WOCHE 15.–18. September 2015 Hamburg www.statistische-woche.de Contents Inhaltsverzeichnis Program – Overview . . . . . . . . . . p. 5 Programm – Überblick . . . . . . . . S. 5 Session – Timetable . . . . . . . . . . . p. 8 Session – Zeitplan . . . . . . . . . . . . . S. 8 Plenary/ Poster Presentations . . p. 9 Plenar-/ Poster Präsentationen S. 9 Program DGD . . . . . . . . . . . . . . . p. 11 Program DGD . . . . . . . . . . . . . . . S. 11 Program VDSt . . . . . . . . . . . . . . p. 12 Programm VDSt . . . . . . . . . . . . .S. 12 Program DStatG . . . . . . . . . . . . p. 13 Program DStatG . . . . . . . . . . . . . S. 13 • • • • Tuesday . . . . . . . . . . . . . . . . . p. Wednesday . . . . . . . . . . . . . . p. Thursday . . . . . . . . . . . . . . . . p. Friday . . . . . . . . . . . . . . . . . . . p. • • • • 13 22 32 42 Dienstag . . . . . . . . . . . . . . . . . S. Mittwoch . . . . . . . . . . . . . . . . S. Donnerstag . . . . . . . . . . . . . . S. Freitag . . . . . . . . . . . . . . . . . . S. 13 22 32 42 Abstracts . . . . . . . . . . . . . . . . . . . . p. 45 Abstracts . . . . . . . . . . . . . . . . . . . .S. 45 List of participants . . . . . . . . . . p. 172 Teilnehmerliste . . . . . . . . . . . . . S. 172 • microm Micromarketing Systeme und Consult GmbH • RatSWD • Springer Verlag • Statistikamt Nord • Statistisches Bundesamt - Destatis • Statistik der Bundesagentur für Arbeit • SAS Institute GmbH-JMP • SAS Institute GmbH Sponsoren – Sponsors: • ADDITIVE Soft- und Hardware für Technik und Wissenschaft GmbH • Institut für Arbeitsmarkt- und Berufsforschung (IAB) der Bundesagentur für Arbeit • InstantAtlas - Geowise Limited • Landesbetrieb Geoinformation und Vermessung • McKinsey 1 15.-18. September, Hamburg Statistische Woche 2015 Programmkomitee – Program Commitee: Wolfgang Schmid (Vorsitz DStatG, Europa-Universität Viadrina) Jürgen Chlumsky (Statistisches Bundesamt) Lothar Eichhorn (Landesbetrieb für Statistik und Kommunikationstechnologie Niedersachsen) Michael Grömling (Institut der deutschen Wirtschaft) Harry Haupt (Universität Passau) Göran Kauermann (LMU München) Sven Knoth (Helmut-Schmidt-Universität Hamburg) Christine Müller (TU Dortmund) Ralf Münnich (Universität Trier) Yarema Okhrin (Universität Augsburg) Winfried Pohlmeier (Universität Konstanz) Ulrike Rockmann (Deutsches Institut für Wirtschaftsforschung e. V.) Für die Städtestatistik – For Municipal Statistics: Michael Haußmann (Landeshauptstadt Stuttgart, Statistisches Amt) Hermann Breuer (Stadt Köln, Amt für Stadtentwicklung und Statistik) Helmut Eppmann (Statistikamt Nord) Juliana Mausfeld (Statistikamt Nord) Christiane Schneider (Statistikamt Nord) Für die Demographie – For Demography: Tilman Mayer (Uni Bonn) Lokale Organisation – Local Organizers: Sven Knoth (Leitung lokales Organisationskomitee, Helmut-Schmidt-Universität Hamburg) Detlef Steuer (Lokales Organisationskomitee, Helmut-Schmidt-Universität Hamburg) Doris Ehrich (Lokales Organisationskomitee, Helmut-Schmidt-Universität Hamburg) Yarema Okhrin (Tagungsbeauftragter DStatG, Universität Augsburg) Moritz Heiden (Programmbeauftragter DStatG, Universität Augsburg) 2 Statistische Woche 2015 15.-18. September, Hamburg Kurse/ courses Kurs Reproducible Research Im Rahmen der Statistischen Woche 2015 an der Helmut-Schmidt-Universität Hamburg findet ein Tutorium Reproducible Research mit RStudio und knitr statt. Ort PC-Pool der Fakultät WiSo, Gebäude H1 (Hauptgebäude), R. 2161 (2.Stock) Zeit Freitag, 18. September, 13:00 - 14:30 Uhr und 14:45 - 16:15 Uhr Inhalt des Kurses Es wird zunächst in die Idee des Reproducible Research eingeführt und die Notwendigkeit einer strengen Umsetzung dieses Paradigmas erläutert. Anhand praktischer Beipiele wird gezeigt, wie die Kombination R/RStudio/knitr eine weitgehende Wiederholbarkeit der eigenen Fortschungsergebnisse unzusetzen hilft. Die notwendige Software ist auf den Rechnern im Pool installiert, wer auf seinem privaten Rechner arbeiten möchte, benötigt R/RStudio, knitr (in RStudio enthalten) und eine funktionsfähige TEX/LATEX Arbeitsumgebung. Maximale Anzahl der Teilnehmer: 20 Eine Anmeldung ist über die Adresse [email protected] bis zum 31. August 2015 möglich. Unternehmenspräsentationen/ company presentations InstantAtlas-Workshop: Best Design Practices / Demo InstantAtlas-DUVA Schnittstelle (1 Stunde) Inhalt: Kurze Präsentation von Geowise über die neue “InstantAtlas Online” Cloud-Plattform. Vorstellung und Diskussion von Beispielen deutscher InstantAtlas Berichte mit anderen Benutzern und Nicht-Benutzern. Präsentation von neuen Excel-Tools für den Datenexport aus DUVA für InstantAtlas. Datum: Mittwoch, den 16. September 2015 Zeit: 14:10-15:00 Ort: .Raum G 3 15.-18. September, Hamburg Statistische Woche 2015 Collogia: “OpenStatistik durch OpenSource leichtgemacht”: Das neue OpenSource-Werkzeug Xavier - gut geeignet um Statistik im Internet zu präsentieren? (40 min) Inhalt: Collogia präsentiert Xavier, • wie Xavier im Internet eingesetzt werden kann, • wie Anforderungen der Statistiker eingebracht werden konnten • und wie Xavier leicht konfiguriert werden kann. Datum: Mittwoch, den 16. September 2015 Zeit: 15:10-15:50 Ort: .Raum G Statistik erleben: Mit JMP das Interesse an Daten wecken und Lernerfolge sichern Dr. Volker Kraft, SAS Institute GmbH, JMP Academic Devision Statistische Konzepte müssen nicht abstrakt bleiben, sondern lassen sich durch eine interaktive Datenanalyse und die geeignete Visualisierung von Ergebnissen direkt erfahrbar machen. Dies motiviert nicht nur Studenten mit Daten zu arbeiten, sondern vertieft auch das Verständnis und sichert die Lernerfolge in der Statistik-Ausbildung. In dieser Session wird mit JMP 12 und Beispieldaten demonstriert, wie Studenten durch angeleitete Übungen statistische Konzepte wie beispielsweise Regression oder Wechselwirkungseffekte erlernen können. Alle Teilnehmer sind herzlich eingeladen die einfachen Übungen praktisch mitzumachen, um die einzigartige Interaktivität und einige beispielhafte Visualisierungen von JMP kennenzulernen. Hierzu kann vor der Session die kostenfreie 30-Tage JMP 12 Testversion (Windows oder Mac) von www.jmp.com installiert werden. Datum: Mittwoch, den 16. September 2015 Zeit: 18:00-19:00 Ort: .Raum G 4 Statistische Woche 2015 15.-18. September, Hamburg Program Overview – Programm Überblick: Tuesday, September 15, 2015: 09:00-10:40 10:40-11:10 11:10-12:00 12:00-12:50 Sessions Break Opening and Plenary Presentation .Room A (Hörsaal 5) Plenary Presentation Statistical Indicators for Policy Monitoring (Enrico Giovannini) .Room A (Hörsaal 5) 12:50-14:10 14:10-15:50 15:50-16:20 16:20-18:00 19:00-21:00 Lunch Break Sessions Break Sessions Welcome reception at the town hall Wednesday, September 16, 2015: 09:00-10:40 09:00-11:30 10:40-11:10 11:10-12:00 12:00-12:50 12:50-14:10 14:10-15:50 15:50-16:20 16:20-18:00 18:30-18:50 18:30-19:00 19:00-23:00 Sessions VDSt General Assembly Meeting .Room D (Hörsaal 3) Break Plenary Presentation Statistical Surveillance (Bill Woodall) .Room A (Hörsaal 5) Heinz-Grohmann Lecture (Joachim Wagner) .Room A (Hörsaal 5) Lunch Break Sessions Break Sessions General Assembly Committee for Regional Statistics .Room D (Hörsaal 3) Poster Presentations and reception .Ellweinsaal (ground floor Mensa) Conference dinner .Ellweinsaal (ground floor Mensa) Thursday, September 17, 2015: 09:00-10:40 10:40-11:10 11:10-12:00 Sessions Break Plenary Presentation Statistical Analysis of Network Data (Michael Schweinberger) .Room A (Hörsaal 5) 12:00-12:50 12:50-14:10 14:10-15:50 15:50-16:20 16:20-18:00 18:00-19:00 Gumbel Lecture (Christoph Rothe) Lunch Break Sessions Break Sessions DStatG General Assembly Meeting 5 .Room A (Hörsaal 5) .Room A (Hörsaal 5) 15.-18. September, Hamburg Statistische Woche 2015 Friday, September 18, 2015: 09:00-10:40 10:40-11:10 11:10-12:50 Sessions Break Sessions Statistische Woche 2016 Die Statistische Woche 2016 wird in Augsburg stattfinden. Aktuelle Informationen und Möglichkeiten zur Einreichung und Anmeldung finden Sie ab Januar 2016 auf www.statistische-woche.de. The German Statistical Week 2016 will be held in Augsburg. Further information will be available from January 2016 on www.statistische-woche.de. Wir freuen uns auf Ihr Kommen! We are looking forward to welcome you! 6 Statistische Woche 2015 15.-18. September, Hamburg Statistische Woche 405 406 I 404 407 WC 403 309 Hauptbibliothek 401/402 Tagungsbüro 308 310 Hörsaal 6 Hörsaal 4 WC F E 305 5 6 Hörsaal 5 301 H A 1 2 Haupteingang 4 3 Roter Platz Kaffeecatering 7 WC 8 Hörsaal 3 D 207 206 9 201 Hörsaal 2 205 B 202 204 Hörsaal 1 203 C 2 SAS Institute GmBH - JMP Division 3 Statistik der Bundesagentur fuer Arbeit Statistik Service Nordost 4 Institut für Arbeitsmarkt- und Berufsorschung (IAB der Bundesagentur für Arbeit) 5 Instantatlas - Geowise Limited GB 6 Statistikamt Nord und Landesbetrieb 7 Additive Soft- und Hardware fuer Technik und Wissenschaft GmbH 8 microm Micromarketing Systeme und Consult GmbH 9 Springer Verlag WC 110 M 101 / 103 G 109 L 108 K 7 105 J Mensa / Lunch 1 Statistisches Bundesamt - Destatis Café 15.-18. September, Hamburg Statistische Woche 2015 Section Session number . Letter of lecture hall Tuesday Sep. 15 1.C 2.C 1.G 2.G 3.G F Statistics in Finance 1.C 2.C 3.C 4.C G Business and Market Statistics 1.D 1.A H Statistical Analysis of Network Data 1.I Statistical Inverse Problems 2.I 3.I 1.E 2.E 3.E J Labour Market and Social Security 1.D K Methodology of Statistical Surveys 2.D 3.D 1.D 2.D L Mini-Symposium 1.F M Statistics in Natural Science and Technology 1.B 2.F 3.F 2.E 3.D 4.D 1.B O Statistical Theory and Methodology 1.C 2.C Q Nonparametric and Robust Statistics 1.A 2.A R Time Series with Structural Breaks 1.H T Computational Statistics and Data Analysis DStatG & Spanish Statistical Society Y Open Section 2.H 3.H 1.F 2.H U Smoothing Categorial Regressors X 3.A 4.A 5.A 1.F 2.F S Data depth and classification DStatG & Italian Statistical Society 2.B 3.B 1.E 2.E P Change Points V Education and Training 11:10-12:50 3.C 4.C 1.A 2.A E Verband Deutscher Städtestatistiker (VDSt) W 09:00-10:40 Friday Sep.18 1.E 2.E D Deutsche Gesellschaft für Demographie (DGD) N Regional Statistics 16:20-18:00 14:10-15:50 11:10-12:50 Thursday Sep. 17 6.B 1.B 2.B 3.B 4.B 5.B 7.C C Empirical Finance I 09:00-10:40 16:20-18:00 Wednesday Sep. 16 A Empirical Economics and Applied Econometrics B Statistical Indicators for Policy Monitoring 14:10-15:50 09:00-10:40 16:20-18:00 09:00-10:40 14:10-15:50 Session Timetable – Session Zeitplan 1.E 2.E 1.H 2.H 1.F 1.F The numbers and the letters in the table correspond to the session number and the .lecture hall letter. For example, 1.A means the first session takes place in Room A (see list of abbreviations below). 8 Statistische Woche 2015 Raum/room H5 Hörsaal 5 H2 Hörsaal 2 H1 Hörsaal 1 H3 Hörsaal 3 H4 Hörsaal 4 H6 Hörsaal 6 SR101 Seminarraum 101/103 15.-18. September, Hamburg Abkürzung/ abbreviation Raum/room A SR301 Seminarraum 301/303 B SR405 Seminarraum 405/406 C SR105 Seminarraum 105 D SR108 Seminarraum 108 E SR109 Seminarraum 109 F SR110 Seminarraum 110 G Abkürzung/ abbreviation H I J K L M Plenary Presentations Room: A Opening and Plenary Presentation. Tuesday 15th, 11:10-12:00. Plenary Presentation: Enrico Giovannini. “Statistical Indicators for Political Monitoring”. Tuesday 15th, 12:00-12:50. Plenary Presentation Statistical Surveillance: Bill Woodall. “Monitoring and Improving Surgical Outcome Quality”. Wednesday 16th, 11:10-12:00. Heinz-Grohmann Lecture: Joachim Wagner. “25 Jahre Nutzung vertraulicher Firmendaten der amtlichen Statistik für wirtschaftswissenschaftliche Forschung: Produkte, Projekte, Probleme, Perspektiven”. Wednesday 16th, 12:00-12:50. Plenary Presentation Statistical Analysis of Network Data: Michael Schweinberger. “Exponentialfamily random graph models with local dependence”. Thursday 17th, 11:10-12:00. Gumbel Lecture: Christoph Rothe. “Partial identification in regression discontinuity designs with manipulated running variables”. Thursday 17th, 12:00-12:50. Poster Presentations Room: Ellweinsaal Christian Weiß. “Analysis and Modelling of Categorical Time Series”. Lisiane Schnegelsberg; Steffen Liebscher; Thomas Kirschstein. “How to find the best publication strategy”. Moritz Heiden; Alain Hamid. “Forecasting volatility with empirical similarity and Google Trends”. Horst Gabriel. “Arbeitsmarktindikatoren im regionalen Vergleich”. 9 15.-18. September, Hamburg Statistische Woche 2015 Martin Biewen; Stefanie Seifert. “Potential Parenthood and Career Progression of Men and Women A Simultaneous Hazards Approach”. Steffen Liebscher; Thomas Kirschstein. “The restlos package - robust estimation of location and scatter”. Danvee Floro; Björn van Roye. “The Responsiveness of Monetary Policy to Financial Stress: A Panel Data Analysis”. Daniel Ambach; Philipp Otto. “A survey on wind power in Germany and prediction of wind speed at a wind farm”. Ralf Münnich; Philip Rosenthal; Ekkehard Sachs. “Hybridalgorithmus zur Schätzung von robusten räumlichen Small Area Modellen”. Sebastian Leist. “Soziale Segregation im Schulsystem Hamburgs”. Rafael Weißbach; Michael Herzog. “Regionaler Anteil kariesfreier Vorschulkinder - eine clusterrandomisierte Studie in Südhessen”. 10 Statistische Woche 2015 15.-18. September, Hamburg Deutsche Gesellschaft für Demographie DGD: Nachhaltige Ausdehnung der Lebensspanne: Herausforderungen für die Pflege (Session 1) Chair: Rembrandt Scholz, Room: A, abstracts see page 52 to 54 Rainer Unger. “Ursachen und Wandel von Pflegebedürftigkeit”. Tuesday 15th, 14:10-14:35. Joscha Krause; Aiko Kühn; Ralf Münnich. “Die Auswirkungen des demographischen Wandels auf die Pflegeversorgung in Grenzregionen”. Tuesday 15th, 14:35-15:00. Anne Fink; Gabriele Doblhammer. “Risiko für Pflegebedürftigkeit von Demenzpatienten hängt vom behandelnden Arzt ab”. Tuesday 15th, 15:00-15:25. Charlotte Sahin; Olaf Iseringhausen; Kira Hower; Anja Rethmeier-Hanke; Hans-Christian Körner; Constanze Liebe; Uwe Borchers; Bernd Wedmann. “Entwicklung von sektorübergreifenden Versorgungsstrukturen - Ergebnisse aus dem Modell Regionales Versorgungskonzept Geriatrie”. Tuesday 15th, 15:25-15:50. DGD: Nachhaltige Ausdehnung der Lebensspanne: Herausforderungen für die Pflege (Session 2) Chair: Enno Nowossadeck, Room: A, abstracts see page 56 to 57 Alexander Rommel; Cornelia Lange; Matthias Wetzstein. “Gesundheit, Lebenssituation und soziale Unterstützung bei pflegenden Angehörigen. Ergebnisse der Studie “Gesundheit in Deutschland aktuell 2012””. Tuesday 15th, 16:20-16:45. Sonja Nowossadeck; Daniela Klaus. “Die Lebensqualität pflegender Angehöriger: Befunde aus dem Deutschen Alterssurvey”. Tuesday 15th, 16:45-17:10. Benjamin Strohner. “Prognose des informellen Betreuungspotentials Älterer durch Ältere bis 2050”. Tuesday 15th, 17:10-17:35. Betül Güntürk-Kuhl; Caroline Neuber-Pohl. “Regionalität des Bedarfes an den Gesundheitsberufen Ergebnisse der regionalen BIBB-IAB-Qualifikations- und Berufsfeldprojektionen”. Tuesday 15th, 17:35-18:00. 11 15.-18. September, Hamburg Statistische Woche 2015 Verband Deutscher Städtestatistiker (VDSt) VDSt: Das Zensus-System im Weitwinkel: Herausforderungen und Zukunftsperspektiven (Session 1) Chair: Michael Haußmann, Room: G, abstracts see page 58 Bettina Knauth. “Was (gleich) nach dem Zensus kommt - Informationsmanagement auf Registerbasis. Beispiele und Perspektiven künftiger Planungsunterstützung in Europa”. Tuesday 15th, 16:20-16:40. Erik Schulte-Nordhorn. ““Eins für alle” - Die Nutzung zentraler Register für Aufgaben eines nationalen Zensus und die kommunale Planung in den Niederlanden”. Tuesday 15th, 16:40-17:00. Podiumsdiskussion mit zwei Impuls-Statements. “Rechts überholt - Erodieren zentrale Angebote amtlicher und institutioneller Statistik die kommunale Planungshoheit, oder fügt sich ein neues System föderaler Zusammenarbeit?” Tuesday 15th, 17:00-18:00. VDSt: Jenseits von Registern und Umfragen: Nutzung und Potenzial von neuen Datenquellen für Planung und Politik (Session 2) Chair: Hartmut Bömermann, Room: G, abstracts see page 59 to 60 Tim Elrick; Matthias Plennert. “Anwendungsreif? Nutzung und Potenzial von Internetdaten für Stadtforschung und Raumbeobachtung”. Thursday 17th, 09:00-09:45. Günther Bachmann. “Die Kombination von Internetdaten und Statistikinformationen zur Bewertung von Umweltqualität und -gerechtigkeit”. Thursday 17th, 09:45-10:10. Anne Seehase. “Die Analyse von Kaltmieten mit Online-Daten - Am Beispiel einer Quantilregression”. Thursday 17th, 10:10-10:35. VDSt: “All Business is local” - Bereitstellung von Verwaltungsdaten für die kommunale Daseinsvorsorge durch die Städtestatistik. (Session 3) Chair: Helmut Schels, Room: G, abstracts see page 61 Andreas Kaiser. “Sozialmonitoring Integrierte Stadtteilentwicklung Hamburg: Die Diffusion eines Stadtbeobachtungssystems in lokale und fachliche Entscheidungsprozesse”. Thursday 17th, 11:10-11:40. Lutz Liffers. “Datengestütztes Bildungsmanagement in Städten - Erfahrungen und Beispiele”. Thursday 17th, 11:40-12:10. Irene Iwanow. “Verwaltungsdaten als Basis für kommunale Wohnungsnachfrage- und Wohnbauflächenprognosen”. Thursday 17th, 12:10-12:40. 12 Statistische Woche 2015 15.-18. September, Hamburg DStatG Sessions Tuesday, September 15th, 2015, 09:00 - 10:40 Statistical Indicators for Policy Monitoring (Session 1: Joint section with Regional Statistics) Chair: Lothar Eichhorn, Room: B, abstracts see page 63 to 65 Hans Diefenbacher; Dorothee Rodenhäuser. “Der Regionale Wohlfahrtsindex - eine Alternative zum Bruttoinlandsprodukt?” Tuesday 15th, 09:00 - 09:25. Frank Thalheimer. “Statistische Indikatoren aus den Volkswirtschaftlichen Gesamtrechnungen der Länder - 25 Jahre gesamtdeutsche Wirtschaftsbeobachtung”. Tuesday 15th, 09:25 - 09:50. Jürgen Göddecke-Stellmann. “Monitoring der Städtebauförderung in der vertikalen Politikverflechtung”. Tuesday 15th, 09:50 - 10:15. Jana Wyrwoll; Susanne Noll. “Die Kennzahlen nach §48a SGB II zum Vergleich der Leistungsfähigkeit von Jobcentern”. Tuesday 15th, 10:15 - 10:40. Statistics in Finance (Session 1) Chair: Yarema Okhrin, Room: C, abstracts see page 66 to 67 Moritz Heiden. “Pitfalls of the Cholesky Decomposition for Forecasting Multivariate Volatility”. Tuesday 15th, 09:00 - 09:25. Johannes Rohde. “Downside Risk Measure Performance under Changes in Volatility”. Tuesday 15th, 09:25 - 09:50. Sebastian Bayer. “Combining VaR Forecasts using Lasso Quantile Regression”. Tuesday 15th, 09:50 - 10:15. Rainer Schüssler. “Dynamic Optimization of Futures Portfolio Strategies under Downside Risk Control”. Tuesday 15th, 10:15 - 10:40. Business and Market Statistics (Session 1) Chair: Michael Grömling, Room: D, abstracts see page 67 to 68 Sandra Gottschalk. “Forschungsdatenzentrum des ZEW (ZEW-FDZ)”. Tuesday 15th, 09:00 - 09:25. 13 15.-18. September, Hamburg Statistische Woche 2015 Andreas Kladroba. “Herausforderungen bei der Operationalisierung des Forschungsbegriffs in der FuEErhebung”. Tuesday 15th, 09:25 - 09:50. Michael Grömling. “Digitale Revolution - (wie) nimmt sie die Statistik wahr?” Tuesday 15th, 09:50 - 10:15. Education and Training (Session 1) Chair: Ulrike Rockmann, Room: E, abstracts see page 69 Jan Schwochow. “Infographik - Datenvisualisierung und Wissensvermittlung”. Tuesday 15th, 09:00 - 09:40. Hans-Joachim Mittag. “Interaktive und plattformunabhängige Lernobjekte für die Statistikausbildung”. Tuesday 15th, 09:40 - 10:20. Open Section (Session 1) Chair: Kerstin Schmidtke, Room: F, abstracts see page 70 to 72 Hans-Dieter Kretschman; Heike Zettwitz. “Der indikatorengestützte Demografiemonitor als statistischempirische Basis für das Handlungskonzept Demografie der Staatsregierung und kommunale/regionale Demografiestrategien im Freistaat Sachsen”. Tuesday 15th, 09:00 - 09:25. Roman Page. “Creative Economy Schweiz - Eine neue Sicht auf die Kreativwirtschaft”. Tuesday 15th, 09:25 - 09:50. Kerstin Schmidtke; Heike Habla. “Nutzen der Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder für die Wissenschaft - Entwicklung von Nachfrage und Angebot”. Tuesday 15th, 09:50 - 10:15. Susana Garcia Diez. “Die Herausbildung von statistischen Indikatoren zur Wohlstandsmessung und zur Initiative ”GDP and Beyond Entwicklungen auf nationaler und internationaler Ebene.” Tuesday 15th, 10:15 - 10:40. Coffee Break: 10:40 - 11:10 Opening and Plenary Presentation Chair: Wolfgang Schmid, Room: A Opening and Plenary Presentation. Tuesday 15th, 11:10-12:00. 14 Statistische Woche 2015 15.-18. September, Hamburg Plenary Presentation Statistical Indicators for Policy Monitoring Chair: Jürgen Chlumsky, Room: A Plenary Presentation: Enrico Giovannini. “Statistical Indicators for Political Monitoring”. Tuesday 15th, 12:00-12:50. Lunch Break: 12:50 - 14:10 15 15.-18. September, Hamburg Statistische Woche 2015 Tuesday, September 15th, 2015, 14:10 - 15:50 Statistical Indicators for Policy Monitoring (Session 2: Panel discussion - Usage of education indicators / Nutzung von Bildungsindikatoren) Chair: Ulrike Rockmann, Room: B, abstracts see page 72 Prof. Dr. Martin Baethge; Prof. Dr. Andrä Wolter; Christian Müller; Eckart Hohmann; Karin Prien. “Podiumsdiskussion”. Tuesday 15th, 14:10 - 15:50. DGD: Nachhaltige Ausdehnung der Lebensspanne: Herausforderungen für die Pflege (Session 1) Chair: Rembrandt Scholz, Room: A, abstracts see page 52 to 54 Rainer Unger. “Ursachen und Wandel von Pflegebedürftigkeit”. Tuesday 15th, 14:10-14:35. Joscha Krause; Aiko Kühn; Ralf Münnich. “Die Auswirkungen des demographischen Wandels auf die Pflegeversorgung in Grenzregionen”. Tuesday 15th, 14:35-15:00. Anne Fink; Gabriele Doblhammer. “Risiko für Pflegebedürftigkeit von Demenzpatienten hängt vom behandelnden Arzt ab”. Tuesday 15th, 15:00-15:25. Charlotte Sahin; Olaf Iseringhausen; Kira Hower; Anja Rethmeier-Hanke; Hans-Christian Körner; Constanze Liebe; Uwe Borchers; Bernd Wedmann. “Entwicklung von sektorübergreifenden Versorgungsstrukturen - Ergebnisse aus dem Modell Regionales Versorgungskonzept Geriatrie”. Tuesday 15th, 15:25-15:50. Statistics in Finance (Session 2) Chair: Yarema Okhrin, Room: C, abstracts see page 73 to 74 Nestor Parolya; Taras Bodnar; Yarema Okhrin. “Estimation of Expected Utility Portfolios for Large Dimensional Data”. Tuesday 15th, 14:10 - 14:35. Florian Ziel. “Estimating ARMA-GARCH Processes in High Dimensions”. Tuesday 15th, 14:35 - 15:00. Maryna Yaroshenko; Taras Zabolotskyy. “The price for Basel III: theoretical aspects”. Tuesday 15th, 15:00 - 15:25. 16 Statistische Woche 2015 15.-18. September, Hamburg Matthias Eckardt; Maria Grith. “Dynamic Analysis of Multivariate Time Series Using Conditional Wavelet Graphs”. Tuesday 15th, 15:25 - 15:50. Statistical Inverse Problems (Session 1) Chair: Hajo Holzmann, Room: B, abstracts see page 75 to 76 Katharina Proksch; Hajo Holzmann; Nicolai Bissantz. “Confidence regions for images observed under the Radon transform”. Tuesday 15th, 14:10 - 14:35. Jakob Söhl; Mathias Trabs. “Adaptive confidence bands for Markov chains and diffusions: Estimating the invariant measure and the drift”. Tuesday 15th, 14:35 - 15:00. Nicolai Bissantz. “Detecting time-dependency and separation of objects in live cell-imaging”. Tuesday 15th, 15:00 - 15:25. Johanna Kappus. “Density estimation from grouped data with skew densities and heterogeneous group sizes”. Tuesday 15th, 15:25 - 15:50. Young-Academics Mini-Symposium (Session 1) Chair: Roland Langrock, Room: D, abstracts see page 77 to 78 David Borchers. “Wildlife sampling methods and models”. Tuesday 14:10 - 15:00. Charlotte Moragh Jones-Todd. “Why Spatial models are useful in ecology (Understanding the mechanics of dots)”. Tuesday 15:00 - 15:25. Emily Beth Dennis. “Recent developments for modelling butterfly abundance”. Tuesday 15:25 - 15:50. Change Points (Session 1) Chair: Ansgar Steland, Room: E, abstracts see page 78 to 79 Wolfgang Schmid; Yarema Okhrin. “Monitoring Time Dependent Processes”. Tuesday 15th, 14:10 - 15:00. Ansgar Steland; Rainer von Sachs. “Inference and Change-Point Asymptotics for Covariance Matrices of High-Dimensional Time Series”. Tuesday 15th, 15:00 - 15:25. 17 15.-18. September, Hamburg Statistische Woche 2015 Computational Statistics and Data Analysis (Session 1) Chair: Roland Fried, Room: H, abstracts see page 79 to 81 Peter Filzmoser; Sven Serneels; Irene Hoffmann; Christophe Croux. “Sparse partial robust M-estimation for regression and classification”. Tuesday 14:10 - 15:00. Annette Möller; Gerhard Tutz; Jan Gertheiss. “Random Forests for Functional Covariates”. Tuesday 15:00 - 15:25. Sermad Abbas; Roland Fried. “Control charts based on robust two-sample tests”. Tuesday 15:25 - 15:50. Coffee Break: 15:50 - 16:20 18 Statistische Woche 2015 15.-18. September, Hamburg Tuesday, September 15th, 2015, 16:20 - 18:00 Statistical Indicators for Policy Monitoring (Session 3: Political significance of statistical indicators) Chair: G. Wagner, Room: B, abstracts see page 81 Anika Rasner. “Regierungsinitiative ”Gut leben in Deutschland - was uns wichtig ist Entwicklung eines Indikatorensatzes zur Lebensqualität”. Tuesday 15th, 16:20 - 16:55. Oliver Schmolke. “Politische Rahmenbedingungen und Zielsetzungen der Regierungsstrategie “Gut leben in Deutschland - was uns wichtig ist””. Tuesday 15th, 16:55 - 17:30. Jörg Mayer-Ries. “Form Follows Function? - Erfahrungen aus der Praxis von Nachhaltigkeitsmanagement und Nachhaltigkeitspolitik mittels Indikatoren”. Tuesday 15th, 17:30 - 18:00. DGD: Nachhaltige Ausdehnung der Lebensspanne: Herausforderungen für die Pflege (Session 2) Chair: Enno Nowossadeck, Room: A, abstracts see page 56 to 57 Alexander Rommel; Cornelia Lange; Matthias Wetzstein. “Gesundheit, Lebenssituation und soziale Unterstützung bei pflegenden Angehörigen. Ergebnisse der Studie “Gesundheit in Deutschland aktuell 2012””. Tuesday 15th, 16:20-16:45. Sonja Nowossadeck; Daniela Klaus. “Die Lebensqualität pflegender Angehöriger: Befunde aus dem Deutschen Alterssurvey”. Tuesday 15th, 16:45-17:10. Benjamin Strohner. “Prognose des informellen Betreuungspotentials Älterer durch Ältere bis 2050”. Tuesday 15th, 17:10-17:35. Betül Güntürk-Kuhl; Caroline Neuber-Pohl. “Regionalität des Bedarfes an den Gesundheitsberufen Ergebnisse der regionalen BIBB-IAB-Qualifikations- und Berufsfeldprojektionen”. Tuesday 15th, 17:35-18:00. VDSt: Das Zensus-System im Weitwinkel: Herausforderungen und Zukunftsperspektiven (Session 1) Chair: Michael Haußmann, Room: G, abstracts see page 58 to 59 Bettina Knauth. “Was (gleich) nach dem Zensus kommt - Informationsmanagement auf Registerbasis. Beispiele und Perspektiven künftiger Planungsunterstützung in Europa”. Tuesday 15th, 16:20-16:40. 19 15.-18. September, Hamburg Statistische Woche 2015 Erik Schulte-Nordhorn. ““Eins für alle” - Die Nutzung zentraler Register für Aufgaben eines nationalen Zensus und die kommunale Planung in den Niederlanden”. Tuesday 15th, 16:40-17:00. Podiumsdiskussion mit zwei Impuls-Statements. “Rechts überholt - Erodieren zentrale Angebote amtlicher und institutioneller Statistik die kommunale Planungshoheit, oder fügt sich ein neues System föderaler Zusammenarbeit?” Tuesday 15th, 17:00-18:00. Statistics in Finance (Session 3) Chair: Ostap Okhrin, Room: C, abstracts see page 82 to 83 Ostap Okhrin; Taras Bodnar; Nestor Parolya. “Optimal Shrinkage Estimator for High Dimensional Mean Vector”. Tuesday 15th, 16:20 - 16:45. Richard Neuberg; Lauren Hannah. “Pricing under Estimation Risk”. Tuesday 15th, 16:45 - 17:10. Robinson Kruse; Christoph Wegener. “Testing for Neglected Strong Dependence in Explosive Models”. Tuesday 15th, 17:10 - 17:35. Mohsen Rezapour. “Estimating and Using continuous time stochastic volatility driven by partially nested levy Archimedean copula Models with VIX Data for Option Valuation”. Tuesday 15th, 17:35 - 18:00. Young-Academics Mini-Symposium (Session 2) Chair: Roland Langrock, Room: D, abstracts see page 84 to 85 Stacy Lynn DeRuiter. “Measuring whale behavioural responses to anthropogenic disturbance using data from animal-borne tags”. Tuesday 15th, 16:20 - 16:45. Théo Michelot; Roland Langrock; Paul Blackwell. “A statistical introduction to animal movement modelling”. Tuesday 15th, 16:45 - 17:10. Jonas Knape; Perry de Valpine. “Monte Carlo estimation of stage durations from cohort data”. Tuesday 15th, 17:10 - 17:35. Rachel Sara McCrea. “Capture-recapture models in ecology: A trio of multistate developments”. Tuesday 15th, 17:35 - 18:00. 20 Statistische Woche 2015 15.-18. September, Hamburg Change Points (Session 2) Chair: Wolfgang Schmid, Room: E, abstracts see page 86 Maik Döring. “Multiple CUSP estimation in regression models”. Tuesday 15th, 16:20 - 16:45. Taras Lazariv; Wolfgang Schmid. “Surveillance of non-stationary processes”. Tuesday 15th, 16:45 - 17:10. Smoothing Categorial Regressors (Session 1) Chair: Harry Haupt and Joachim Schnurbus, Room: F, abstracts see page 87 Jeffrey S. Racine. “Smoothing Categorical Regressors”. Tuesday 15th, 16:20 - 17:10. Jan Gertheiss; Elizabeth Sweeney. “ANOVA for Factors With Ordered Levels”. Tuesday 15th, 17:10 - 17:35. Harry Haupt; Joachim Schnurbus. “Global, cluster, and individual effects by smoothing categorical predictors”. Tuesday 15th, 17:35 - 18:00. Other events on Tuesday : Discovering Hamburg on your own 15:00 : City tour and sightseeing 19:00 : Welcome reception at the town hall 21 15.-18. September, Hamburg Statistische Woche 2015 Wednesday, September 16th, 2015, 09:00 - 10:40 Statistical Indicators for Policy Monitoring (Session 4: Economic and financial policy) Chair: Peter Schmidt, Room: B, abstracts see page 88 to 89 Bernd Hanke. “Finanzpolitische Kennziffern als Instrumente der Politikgestaltung und -vermittlung”. Wednesday 16th, 09:00 - 09:25. Albert Braakmann. “Administrative Verwendung statistischer Indikatoren-Entwicklungen und Auswirkungen am Beispiel der EU-Stabilitätspaktdaten”. Wednesday 16th, 09:25 - 09:50. Edgar Brandt. “Statistische Indikatoren zur Wirtschafts- und Finanzstabilitätspolitik aus der Perspektive einer Zentralbank”. Wednesday 16th, 09:50 - 10:15. Jens Mehrhoff. “How should we measure residential property prices to inform policy makers?” Wednesday 16th, 10:15 - 10:40. Statistics in Finance (Session 4) Chair: Yarema Okhrin, Room: C, abstracts see page 90 to 91 Taras Bodnar; Markus Reiß. “Exact and Asymptotic Tests on a Factor Model in Low and Large Dimensions with Applications”. Wednesday 16th, 09:00 - 09:25. Stefan Klößner; Gregor Pfeifer. “Synthesizing Cash for Clunkers: Stabilizing the Car Market, Hurting the Environment”. Wednesday 16th, 09:25 - 09:50. Theo Berger. “Wavelet decomposition and applied portfolio management”. Wednesday 16th, 09:50 - 10:15. Rafael Beier; Stefan Bender. “The Bundesbank’s Research Data and Service Center (RDSC): Gateway to Treasures of Micro-Data on the German Financial System”. Wednesday 16th, 10:15 - 10:40. Statistical Inverse Problems (Session 2) Chair: Hajo Holzmann, Room: I, abstracts see page 91 to 92 Cristina Butucea; Rodrigue Ngueyep Tzoumpe; Pierre Vandekerkhove. “Mixture models with symmetric errors”. Wednesday 16th, 09:00 - 09:50. 22 Statistische Woche 2015 15.-18. September, Hamburg Alexander Meister. “Nonparametric GARCH models”. Wednesday 16th, 09:50 - 10:15. Fabian Dunker; Thorsten Hohage. “Nonparametric estimation of coefficients in stochastic differential equations by penalized maximum likelihood”. Wednesday 16th, 10:15 - 10:40. Statistics in Natural Science and Technology (Session 1) Chair: Sven Knoth, Room: F, abstracts see page 93 to 94 Vera Hofer. “Challenges of virtual testing in statistical quality control of railway ballast”. Wednesday 16th, 09:00 - 09:50. Aleksey Polunchenko. “Efficient Performance Evaluation of the Cumulative Sum Chart and the Sequential Probability Ratio Test”. Wednesday 16th, 09:50 - 10:15. Manuel Cabral Morais; António Pacheco. “On control charts and the detection of increases in the traffic intensity”. Wednesday 16th, 10:15 - 10:40. Regional Statistics (Session 1) Chair: Lothar Eichhorn, Room: E, abstracts see page 94 to 97 Wolf-Dietmar Speich. “Statistische Indikatoren aus den Gesundheitsökonomischen Gesamtrechnungen für die Gesundheitsberichterstattung der Länder”. Wednesday 16th, 09:00 - 09:25. Dr. Olivia Martone. “Mit Statistiken lügt man nicht. Der Beitrag der Umweltökonomischen Gesamtrechnungen der Länder zum politischen Monitoring.” Wednesday 16th, 09:25 - 09:50. Guido Oemmelen. “microm Indikatoren für das kleinräumige politische Monitoring”. Wednesday 16th, 09:50 - 10:15. Lothar Eichhorn; Tanja Eichhorn. “Bestimmungsfaktoren der Zuwanderung”. Wednesday 16th, 10:15 - 10:40. Smoothing Categorial Regressors (Session 2) Chair: Harry Haupt and Joachim Schnurbus, Room: H, abstracts see page 97 to 98 Daniela Pauger; Helga Wagner; Gertraud Malsiner-Walli. “Sparse Bayesian Modelling for Categorical Predictors”. Wednesday 16th, 09:00 - 09:25. 23 15.-18. September, Hamburg Statistische Woche 2015 Phillip Heiler; Jana Mareckova. “We Belong Together - Pairwise Cross-Smoothing of Categorical Predictors”. Wednesday 16th, 09:25 - 09:50. Christian Schellhase; Joachim Schnurbus; Göran Kauermann. “Mixed copulae for Munich rent survey - Rent versus configuration of flats in Munich”. Wednesday 16th, 09:50 - 10:15. Coffee Break: 10:40 - 11:10 Wednesday, September 16th, 2015, 11:10 - 12:50 Plenary Presentation Statistical Surveillance Chair: Sven Knoth, Room: A, abstract see page 45 Plenary Presentation Statistical Surveillance: Bill Woodall. “Monitoring and Improving Surgical Outcome Quality”. Wednesday 16th, 11:10-12:00. Heinz-Grohmann Lecture Chair: Ulrich Rendtel, Room: A Heinz-Grohmann Lecture: Joachim Wagner. “25 Jahre Nutzung vertraulicher Firmendaten der amtlichen Statistik für wirtschaftswissenschaftliche Forschung: Produkte, Projekte, Probleme, Perspektiven”. Wednesday 16th, 12:00-12:50. Lunch Break: 12:50 - 14:10 24 Statistische Woche 2015 15.-18. September, Hamburg Wednesday, September 16th, 2015, 14:10 - 15:50 Empirical Economics and Applied Economics (Session 1: Applied Time Series Analysis) Chair: Winfried Pohlmeier, Room: C, abstracts see page 99 Siem Lan Koopman. “Developments in nonlinear and Non-Gaussian time series analysis using Importance Sampling methods”. Wednesday 16th, 14:10 - 15:00. Aleksei Netsunajev; Helmut Lütkepohl. “Structural Vector Autoregressions with Smooth Transition in Variances”. Wednesday 16th, 15:00 - 15:25. Michael Will; Christian Leschinski; Robinson Kruse. “Comparing Predictive Accuracy under Long Memory”. Wednesday 16th, 15:25 - 15:50. Statistical Indicators for Policy Monitoring (Session 5: International indicators) Chair: Peter Schmidt , Room: B, abstracts see page 100 Priit Potisepp. “Use of economic statistics from popularity, misuse and misinterpretation perspectives”. Wednesday 16th, 14:10 - 14:45. Nico Massarelli. Wednesday 16th, 14:45 - 15:20. Susanne Schnorr-Bäcker. “Politikbegleitendes statistisches Monitoring auf inter- und supranationaler Ebene Titel der”. Wednesday 16th, 15:20 - 15:50. Statistical Inverse Problems (Session 3) Chair: Hajo Holzmann, Room: I, abstracts see page 100 to 101 Melanie Birke; Sebastien van Bellegem; Ingrid van Keilegom. “Semi-parametric estimation in a single index model with endogenous variables”. Wednesday 16th, 14:10 - 14:35. Jan Johannes. “Functional linear instrumental regression”. Wednesday 16th, 14:35 - 15:00. Christoph Breunig. “Estimation and Testing in case of Endogenous Selection”. Wednesday 16th, 15:00 - 15:25. 25 15.-18. September, Hamburg Statistische Woche 2015 Hajo Holzmann; Stefan Hoderlein; Alexander Meister. “The Triangular Model with Random Coefficients”. Wednesday 16th, 15:25 - 15:50. Regional Statistics (Session 2) Chair: Michael Fürnrohr, Room: D, abstracts see page 102 to 104 Gerd Reh. ““Zensus2011-Straßenatlas”; untergemeindliche Ergebnisse aus der Volks-, Gebäude- und Wohnungszählung für Rheinland-Pfalz”. Wednesday 16th, 14:10 - 14:35. Josef Schäfer. “Small Area Estimation - Stand der Anwendung und Perspektiven in der amtlichen Statistik”. Wednesday 16th, 14:35 - 15:00. Wolfgang Hüning. “Regionalstatistische Anforderungen an die Weiterentwicklung des Systems der Haushaltsstatistiken (WSH)”. Wednesday 16th, 15:00 - 15:25. Helmut Eppmann. “Evaluierung des Zensus 2011 und Konsequenzen für den Zensus 2021”. Wednesday 16th, 15:25 - 15:50. Time Series with Structural Breaks (Session 1) Chair: Idris Eckley, Room: A, abstracts see page 104 to 106 Rainer von Sachs; Joris Chau. “Functional mixed models for subject-replicated data with potential breakpoints”. Wednesday 16th, 14:10 - 14:35. Carsten Jentsch; Anne Leucht; Marco Meyer; Carina Beering. “Empirical characteristic function-based estimation for locally stationary processes”. Wednesday 16th, 14:35 - 15:00. Philip Bertram; Philipp Sibbertsen; Jun Ma. “Modelling real exchange rates: A Markov-STAR model”. Wednesday 16th, 15:00 - 15:25. Anna Louise Schröder; Piotr Fryzlewicz. “Dual Binary Segmentation for the Detection of Changes in Mean and/or Variance of Piecewise-Stationary Time Series”. Wednesday 16th, 15:25 - 15:50. 26 Statistische Woche 2015 15.-18. September, Hamburg Education and Training (Session 2) Chair: Ulrike Rockmann, Room: E, abstracts see page 106 to 108 Björn Christensen; Tanja Ihden; Martin Missong. “Statistik für Juristinnen und Juristen - Eine Lücke im Aus- und Weiterbildungsangebot?” Wednesday 16th, 14:10 - 14:35. Manuel Förster; Andreas Maur. “Angst vor und Einstellung zum Fach Statistik von Studienanfängern der Wirtschafts-, Politikwissenschaft und der Soziologie”. Wednesday 16th, 14:35 - 15:00. Ramona Voshage; Katja Baum. “Weiterbildung zum Statistischen Informationssystem (StatIS-BBB)”. Wednesday 16th, 15:00 - 15:25. Jürgen Kaselowsky. “SAS Analytics U - die neue Community für alle, die SAS lernen wollen”. Wednesday 16th, 15:25 - 15:50. Coffee Break: 15:50 - 16:20 27 15.-18. September, Hamburg Statistische Woche 2015 Wednesday, September 16th, 2015, 16:20 - 18:00 Statistical Indicators for Policy Monitoring (Session 6: Wealth indicators) Chair: Albert Braakmann, Room: B, abstracts see page 108 to 110 Norbert Schwarz. “Einkommensverteilung als Indikator - Was ist dabei zu beachten?” Wednesday 16th, 16:20 - 16:45. Erich Oltmanns; Joachim Schmidt. “Messung von subjektivem Wohlbefinden: Empirische Ergebnisse für Deutschland”. Wednesday 16th, 16:45 - 17:10. Bernd Schmidt; Daniel Kühnhenrich; Christian Zipse; Carsten Hornbach. “Entlastungen spürbarer machen - Wie nehmen Bürgerinnen und Bürger sowie Unternehmen den Kontakt zur Verwaltung wahr?” Wednesday 16th, 17:10 - 17:35. Moritz Mannschreck. “Die Gesundheitsausgabenrechnung”. Wednesday 16th, 17:35 - 18:00. Statistical Indicators for Policy Monitoring (Session 7: Education) Chair: Pia Brugger, Room: C, abstracts see page 111 to 113 Pia Brugger. “Steuerungsrelevante Kennzahlen für den Hochschulbereich”. Wednesday 16th, 16:20 - 16:45. Arne Schmidt; Nicole Buschle. “Monetäre Kennzahlen im Bildungsmonitoring”. Wednesday 16th, 16:45 - 17:10. Iris Gönsch. “Bildung im Lebenslauf - Ergebnisse der Zeitverwendungserhebung 2012/13”. Wednesday 16th, 17:10 - 17:35. Klaudia Schulte. “Der Sozialindex für Hamburger Schulen ”. Wednesday 16th, 17:35 - 18:00. Empirical Finance (Session 1) Chair: Roman Liesenfeld, Room: E, abstracts see page 113 to 114 Luc Bauwens. “Forecasting Comparison of Long Term Component Dynamic Models”. Wednesday 16th, 16:20 - 17:10. Markus Kösler. “Testing for Cojumps - A Multivariate Coexceedance-based Approach”. Wednesday 16th, 17:10 - 17:35. 28 Statistische Woche 2015 15.-18. September, Hamburg Christoph Frey; Winfried Pohlmeier. “Bayesian Regularization of Portfolio Weights in High-Dimensional Asset Spaces”. Wednesday 16th, 17:35 - 18:00. Statistics in Natural Science and Technology (Session 2) Chair: Aleksey Polunchenko, Room: F, abstracts see page 115 to 117 Katy Klauenberg; Gerd Wübbeler; Bodo Mickan; Peter Harris; Clemens Elster. “Prior information, but no MCMC: A Bayesian Normal linear regression case study”. Wednesday 16th, 16:20 - 16:45. Olha Bodnar; Alfred Link; Clemens Elster. “Objective Bayesian inference for random effects in a random effects model”. Wednesday 16th, 16:45 - 17:10. André Rehage; Sonja Kuhnt. “Functional outlier detection using data depth in a thermal spraying process”. Wednesday 16th, 17:10 - 17:35. Sonja Kuhnt; Riccomagno Eva; Rudak Nikolaus. “Methods from algebraic statistics to determine identifiable regression models from noisy designs”. Wednesday 16th, 17:35 - 18:00. Regional Statistics (Session 3) Chair: Hartmut Bömermann, Room: D, abstracts see page 117 to 118 Ulrike Rockmann. “Indikatoren für den vorschulischen Bildungsbereich”. Wednesday 16th, 16:20 - 16:45. Stephanie Hirner; Michael Neutze. “Zensus 2011: Deutschlandweit kleinräumige Daten”. Wednesday 16th, 16:45 - 17:10. Timo Schmid; Marcus Groß; Ulrich Rendtel; Sebastian Schmon; Nikos Tzavidis. “Dichteschätzung von Migranten auf Basis des Berliner Einwohnerregisters”. Wednesday 16th, 17:10 - 17:35. Flavia Suter. “Regionaler Bildungsatlas Hamburg”. Wednesday 16th, 17:35 - 18:00. Time Series with Structural Breaks (Session 2) Chair: Roland Fried, Room: A, abstracts see page 119 to 120 Hernando Ombao. “Estimation of structural breaks and spatial boundaries in brain signals and images”. Wednesday 16th, 16:20 - 17:10. 29 15.-18. September, Hamburg Statistische Woche 2015 Gaby Schneider; Michael Messer; Stefan Albert; Julia Schiemann; Jochen Roeper; Ralph Neininger. “A multi scale method for change point detection in point processes”. Wednesday 16th, 17:10 - 17:35. Béatrice Bucchia. “Long-run variance and change-set estimation for spatial data under change-point alternatives”. Wednesday 16th, 17:35 - 18:00. DStatG & Italian Statistical Society (Session 1: Environmental Statistics and Climate Change) Chair: Daniel Ambach, Room: H, abstracts see page 121 Alessandro Fasso; Francesco Finazzi; Ferdinand Ndongo. “Airborne multipollutants population exposure in Europe using semiparametric spatio temporal models”. Wednesday 16th, 16:20 - 17:10. Daniel Ambach; Wolfgang Schmid. “Spatio-temporal wind speed forecasting”. Wednesday 16th, 17:10 - 17:35. Wednesday, September 16th, 2015, 18:30 - 19:00 There will be a sparkling wine reception during the poster session. Poster Presentations Room: Ellweinsaal Christian Weiß. “Analysis and Modelling of Categorical Time Series”. Lisiane Schnegelsberg; Steffen Liebscher; Thomas Kirschstein. “How to find the best publication strategy”. Moritz Heiden; Alain Hamid. “Forecasting volatility with empirical similarity and Google Trends”. Horst Gabriel. “Arbeitsmarktindikatoren im regionalen Vergleich”. Martin Biewen; Stefanie Seifert. “Potential Parenthood and Career Progression of Men and Women A Simultaneous Hazards Approach”. Steffen Liebscher; Thomas Kirschstein. “The restlos package - robust estimation of location and scatter”. Danvee Floro; Björn van Roye. “The Responsiveness of Monetary Policy to Financial Stress: A Panel Data Analysis”. 30 Statistische Woche 2015 15.-18. September, Hamburg Daniel Ambach; Philipp Otto. “A survey on wind power in Germany and prediction of wind speed at a wind farm”. Ralf Münnich; Philip Rosenthal; Ekkehard Sachs. “Hybridalgorithmus zur Schätzung von robusten räumlichen Small Area Modellen”. Sebastian Leist. “Soziale Segregation im Schulsystem Hamburgs”. Rafael Weißbach; Michael Herzog. “Regionaler Anteil kariesfreier Vorschulkinder - eine clusterrandomisierte Studie in Südhessen”. Other events on Wednesday 09:00 10:00 14:10 15:10 14:30 18:00 18:00 19:00 - 11:30 : VDSt general assembly meeting, .Room D (Hörsaal 3) : Harbor sightseeing: “Hafencity” - 15:00 : InstantAtlas-Workshop, see page 3, .Room G - 15:50 : Collogia presentation, see page 4, .Room G : Harbor boat tour - 18:45 : General Assembly Committee for Regional Statistics, .Room D (Hörsaal 3) - 19:00 : JMP presentation, see page 4, .Room G : Conference dinner, .Ellweinsaal 31 15.-18. September, Hamburg Statistische Woche 2015 Thursday, September 17th, 2015, 09:00 - 10:40 Empirical Economics and Applied Economics (Session 2: Applied Microeconometrics) Chair: Axel Werwatz, Room: C, abstracts see page 122 to 124 Christian Westphal. “The Fallacy of the Log-Ratio Standard for Econometric Analysis”. Thursday 17th, 09:00 - 09:25. Stefan Klößner; Ashok Kaul; Gregor Pfeifer; Manuel Schieler. “Synthetic Control Methods: Never Use All Pre-Intervention Outcomes as Economic Predictors”. Thursday 17th, 09:25 - 09:50. Hans Manner; Michael Eichler; Dennis Türk. “Dynamic copula based multivariate discrete choice models”. Wednesday 16th, 09:50 - 10:15. Stephanie Glaser; Robert Jung. “Modelling and Diagnostics of Spatially Autocorrelated Counts”. Wednesday 16th, 10:15 - 10:40. Empirical Finance (Session 2) Chair: Vasyl Golosnoy, Room: E, abstracts see page 124 to 126 Sebastian Christoph Müller. “Normal Mixture variance states for structural identification of financial market models”. Thursday 17th, 09:00 - 09:25. Saskia Rinke; Marie Holzhausen; Christian Leschinski. “True and Spurious Long Memory in Inflation Rates”. Thursday 17th, 09:25 - 09:50. Alexander Jonen. “Risks and Opportunities of Social Trading: Econometric Analysis of Virtual Trades and Returns”. Thursday 17th, 09:50 - 10:15. Vasyl Golosnoy; Markus Pape. “Tests for Location: An Analysis of Finite Sample Performance”. Thursday 17th, 10:15 - 10:40. VDSt: Jenseits von Registern und Umfragen: Nutzung und Potenzial von neuen Datenquellen für Planung und Politik (Session 2) Chair: Hartmut Bömermann, Room: G, abstracts see page 59 to 60 Tim Elrick; Matthias Plennert. “Anwendungsreif? Nutzung und Potenzial von Internetdaten für Stadtforschung und Raumbeobachtung”. Thursday 17th, 09:00-09:45. 32 Statistische Woche 2015 15.-18. September, Hamburg Günther Bachmann. “Die Kombination von Internetdaten und Statistikinformationen zur Bewertung von Umweltqualität und -gerechtigkeit”. Thursday 17th, 09:45-10:10. Anne Seehase. “Die Analyse von Kaltmieten mit Online-Daten - Am Beispiel einer Quantilregression”. Thursday 17th, 10:10-10:35. Statistical Analysis of Network Data (Session 1) Chair: Göran Kauermann, Room: A, abstracts see page 126 to 128 Julian Körber; Aßmann Christian. “Tensor regression models for multilayer networks with missing values”. Thursday 17th, 09:00 - 09:25. Stephanie Thiemichen; Göran Kauermann. “Stable Exponential Random Graph Models with nonparametric components for large networks”. Thursday 17th, 09:25 - 09:50. Christoph Jansen. “Statistical network analysis of the international arms trade”. Thursday 17th, 09:50 - 10:15. Sebastian Leist; Marcus Pietsch. “Detecting Schooling Markets in the Federal State of Hamburg”. Thursday 17th, 10:15 - 10:40. Methodology of Statistical Surveys (Session 1: Weiterentwicklung Haushaltsstatistiken, Calibration Methods) Chair: Hans Kiesl, Room: D, abstracts see page 129 to 131 Karen Blanke; Thomas Riede. “Ergebnisse des ESSnet “Data Collection in Social Surveys Using Multiple Modes” (DCSS) im Kontext der Modernisierung der amtlichen Haushaltsstatistiken in Deutschland”. Thursday 17th, 09:00 - 09:25. Anne Konrad; Jan Pablo Burgard; Ralf Münnich. “Kohärente Schätzungen auf Personen- und Haushaltslevel”. Thursday 17th, 09:25 - 09:50. Martin Rupp; Ralf Münnich. “Zur Kombination von Optimierung und Balancierung in geschichteten Zufallsstichproben”. Thursday 17th, 09:50 - 10:15. Siegfried Gabler und Jan-Philipp Kolb. “Zweistufige Auswahl und Analyse”. Thursday 17th, 10:15 - 10:40. 33 15.-18. September, Hamburg Statistische Woche 2015 Statistics in Natural Science and Technology (Session 3) Chair: Sonja Kuhnt, Room: F, abstracts see page 131 to 132 Samson Adebayo; Ezra Gayawan; Christian Heumann; Christian Seiler. “Joint modelling of Anaemia and Malaria in children under five in Nigeria”. Thursday 17th, 09:00 - 09:25. Peter-Th. Wilrich. “Sampling inspection by variables under Weibull distribution and Type I censoring”. Thursday 17th, 09:25 - 09:50. Jürgen Groß; Annette Möller. “AR modification of ensemble forecasts for temperature”. Thursday 17th, 09:50 - 10:15. Yarema Okhrin; Dominik Schneller. “Forecasting limit exceedances for environmental data using copulas”. Thursday 17th, 10:15 - 10:40. DStatG & Italian Statistical Society (Session 2: Environmental Statistics and Climate Change) Chair: Patrick Vetter, Room: H, abstracts see page 133 Francesco Lagona. “Dynamic mixtures of factor analyzers in environmental research”. Thursday 17th, 09:00 - 09:50. Patrick Vetter; Wolfgang Schmid; Reimund Schwarze. “Spatio-temporal statistical analysis of the carbon budget of the terrestrial ecosystem”. Thursday 17th, 09:50 - 10:15. Coffee Break: 10:40 - 11:10 Plenary Statistical Analysis of Network Data Chair: Göran Kauermann, Room: A Plenary Presentation Statistical Analysis of Network Data: Michael Schweinberger. “Exponentialfamily random graph models with local dependence”. Thursday 17th, 11:10-12:00. Gumbel Lecture Chair: Winfried Pohlmeier, Room: A Gumbel Lecture: Christoph Rothe. “Partial identification in regression discontinuity designs with manipulated running variables”. Thursday 17th, 12:00-12:50. 34 Statistische Woche 2015 15.-18. September, Hamburg VDSt: “All Business is local” - Bereitstellung von Verwaltungsdaten für die kommunale Daseinsvorsorge durch die Städtestatistik. (Session 3) Chair: Helmut Schels, Room: G, abstracts see page 61 Andreas Kaiser. “Sozialmonitoring Integrierte Stadtteilentwicklung Hamburg: Die Diffusion eines Stadtbeobachtungssystems in lokale und fachliche Entscheidungsprozesse”. Thursday 17th, 11:10-11:40. Lutz Liffers. “Datengestütztes Bildungsmanagement in Städten - Erfahrungen und Beispiele”. Thursday 17th, 11:40-12:10. Irene Iwanow. “Verwaltungsdaten als Basis für kommunale Wohnungsnachfrage- und Wohnbauflächenprognosen”. Thursday 17th, 12:10-12:40. Lunch Break: 12:50 - 14:10 35 15.-18. September, Hamburg Statistische Woche 2015 Thursday, September 17th, 2015, 14:10 - 15:50 Empirical Economics and Applied Economics (Session 3: Empirical Labor Economics) Chair: Katharina Glass, Room: C, abstracts see page 134 to 135 Dominik Hanglberger; Joachim Merz. “Does Self-Employment Really Raise Job Satisfaction? Adaptation and Anticipation Effects on Self-Employment and General Job Changes”. Thursday 17th, 14:10 - 14:35. Benjamin Strohner; Rafael Weißbach. “Markovkette als Fertilitätsmodell: Zum Fehlen des Alters der Mutter bei der ersten Geburt”. Thursday 17th, 14:35 - 15:00. Katharina Glass; Aleksei Netsunajev. “Unemployment Dynamics in the US and Euro Area: Do Uncertainty Shocks Matter?” Thursday 17th, 15:00 - 15:25. Methodology of Statistical Surveys (Session 2: Recent Developments in Survey Statistics) Chair: Ralf Münnich, Room: D, abstracts see page 136 to 137 Risto Lehtonen. “Recent developments in calibration methods for survey statistics”. Thursday 17th, 14:10 - 15:00. Timo Schmid; Nikos Tzavidis; Natalia Rojas-Perilla. “Applications of Mixed Models Methodology for Small Area Estimation in Mexico”. Thursday 17th, 15:00 - 15:25. Saeideh Kamgar;Florian Meinfelder; Ralf Münnich. “Estimation within the New Integrated System of Household Surveys in Germany”. Thursday 17th, 15:25 - 15:50. Statistical Theory and Methodology (Session 1) Chair: Harry Haupt, Room: B, abstracts see page 137 to 138 Martin Wagner. “Some Extensions of Regression Based Cointegration Analysis”. Thursday 17th, 14:10 - 15:00. Oliver Stypka; Martin Wagner. “Testing for smooth transition cointegration with integrated or trending transition variable”. Thursday 17th, 15:00 - 15:25. Rafael Kawka; Oliver Stypka; Martin Wagner. “IM-OLS Estimation and Fixed-b Inference for Seasonally Cointegrating Regressions”. Thursday 17th, 15:25 - 15:50. 36 Statistische Woche 2015 15.-18. September, Hamburg Time Series with Structural Breaks (Session 3) Chair: Gaby Schneider, Room: A, abstracts see page 139 to 140 Idris Eckley. “Recent advances in multivariate time series with structural breaks”. Thursday 17th, 14:10 - 14:35. Jean-Marc Freyermuth; Florent Autin; Gerda Claeskens; Christophe Pouet. “Minimax optimal detection of structure for multivariate data”. Thursday 17th, 14:35 - 15:00. Alexander Dürre; Roland Fried; Daniel Vogel. “A test for change in rank-correlation of multivariate time series”. Thursday 17th, 15:00 - 15:25. Christoph Heuser. “Testing for a change in the correlation of time series”. Thursday 17th, 15:25 - 15:50. Data depth and classification (Session 1, joint with Spanish Statistical Society) Chair: Karl Mosler, Room: F, abstracts see page 141 to 142 Alicia Nieto-Reyes; Heather Battey. “Functional data depth: diversity of aims”. Thursday 17th, 14:10 - 14:35. Rosa E. Lillo; Ramón Flores; Juan Romo. “Distances between functional samples based on depth measures”. Thursday 17th, 14:35 - 15:00. Mia Hubert; Peter Rousseeuw; Pieter Segaert. “Multivariate Functional Outlier Detection”. Thursday 17th, 15:00 - 15:25. José R. Berrendero; Antonio Cuevas; José L. Torrecilla. “On the use of Radon-Nikodym derivatives and reproducing kernels in functional classification”. Thursday 17th, 15:25 - 15:50. Computational Statistics and Data Analysis (Session 2) Chair: Christian Weiss, Room: H, abstracts see page 143 to 145 Christian Weiß; Sebastian Schweer. “Bias Corrections for Moment Estimators in Poisson INAR(1) and INARCH(1) Processes”. Thursday 17th, 14:10 - 14:35. Tobias Möller. “Self-exciting threshold binomial INARCH(1) process”. Thursday 17th, 14:35 - 15:00. 37 15.-18. September, Hamburg Statistische Woche 2015 Tobias Liboschik; Roland Fried; Konstantinos Fokianos. “Monitoring of count time series following generalized linear models”. Thursday 17th, 15:00 - 15:25. Jan Vogler; Roman Liesenfeld; Jean-Francois Richard. “Likelihood based inference and prediction in spatio-temporal panel count models for urban crimes”. Thursday 17th, 15:25 - 15:50. Coffee Break: 15:50 - 16:20 38 Statistische Woche 2015 15.-18. September, Hamburg Thursday, September 17th, 2015, 16:20 - 18:00 Empirical Economics and Applied Economics (Session 4: Issues in Empirical Economics) Chair: Johannes Ludsteck, Room: C, abstracts see page 145 to 147 Jing Zeng. “Combining country-specific forecasts when forecasting Euro area macroeconomic aggregates”. Thursday 17th, 16:20 - 16:45. Christoffer Baum; Hans Lööf; Pardis Nabavi; Andreas Stephan. “A New Approach to Estimation of the R&D-Innovation-Productivity Relationship”. Thursday 17th, 16:45 - 17:10. Jochen Lüdering. “The Measurement of Internet Availability and Quality in the Context of the Discussion on Digital Divide”. Thursday 17th, 17:10 - 17:35. Johannes Ludsteck; Ulrich Thomsen. “Imputation of the Working Time Info for the Employment Register Data”. Thursday 17th, 17:35 - 18:00. Labour Market and Social Security (Session 1) Chair: Holger Meinken, Room: D, abstracts see page 147 to 148 Thomas Weißbrodt. “Wer ist arbeitslos? Warum und wie viele?” Thursday 17th, 16:20 - 16:45. Michael Hartmann. “Langzeitarbeitslosigkeit - Begriff, Messung und wichtige Befunde”. Thursday 17th, 16:45 - 17:10. Anja Crößmann; Matthias Eisenmenger. “Die Erfassung von Erwerbstätigkeit durch unterschiedliche Erhebungsmethoden”. Thursday 17th, 17:10 - 17:35. Methodology of Statistical Surveys (Session 3: Erhebungsmethoden) Chair: Peter Schmidt, Room: D, abstracts see page 149 to 151 Ulrich Rendtel. “Warum im Zensus die Ergebnisse der Stichprobenmethode keine Benachteiligung der groen Gemeinden darstellen: Eine Detektivarbeit.” Thursday 17th, 16:20 - 16:45. Christian Seiler; Klaus Wohlrabe. “Sample Size Determination in Business Tendency Surveys”. Thursday 17th, 16:45 - 17:10. 39 15.-18. September, Hamburg Statistische Woche 2015 Christian Hoops; Wolfgang Donsbach; Tobias Michael. “Analyse der Umfragewerte vor Bundestagsund Europawahlen”. Thursday 17th, 17:10 - 17:35. Carsten Jentsch; Eun Ryung Lee; Enno Mammen. “Parteien im politischen Spektrum: Statistische Modellierung und Schätzung der Positionen aus Textdaten - Deutsche Bundestagswahlen 1990 2013”. Thursday 17th, 17:35 - 18:00. Time Series with Structural Breaks (Session 4) Chair: Christoph Heuser, Room: A, abstracts see page 151 to 153 Martin Wendler; Annika Betken; Herold Dehling; Aeneas Rooch. “Robust Change Point Tests and Subsampling under Long Range Dependence”. Thursday 17th, 16:20 - 16:45. Carina Gerstenberger. “A Wilcoxon-Based Testing Procedure for Distinguishing between Long-Range Dependence and Short-Range Dependence with a Change in Mean”. Thursday 17th, 16:45 - 17:10. Christian Leschinski; Philipp Sibbertsen. “A Multivariate Local Whittle Estimator for the Long-Memory Parameter in Presence of Trends and Structural Breaks”. Thursday 17th, 17:10 - 17:35. Tristan Hirsch. “Testing for Changes in Persistence in APARCH-ML Models”. Thursday 17th, 17:35 - 18:00. Data depth and classification (Session 2) Chair: Juan Romo, Room: F, abstracts see page 153 to 155 Rainer Dyckerhoff; Pavlo Mozharovskyi. “Exact computation of the halfspace depth”. Thursday 17th, 16:20 - 16:40. Xiaohui Liu; Karl Mosler; Pavlo Mozharovskyi. “Tukey-trimmed regions via univariate projection quantiles”. Thursday 17th, 16:40 - 17:00. Ondrej Vencalek; Pavlo Mozharovskyi. “Depth-based classification for unimodal distributions”. Thursday 17th, 17:00 - 17:20. Oleksii Pokotylo; Pavlo Mozharovskyi. “Data depth and classification: R-package ”ddalpha””. Thursday 17th, 17:20 - 17:40. 40 Statistische Woche 2015 15.-18. September, Hamburg Tatjana Lange. “The mathematical link between discriminant function and transfer function for dynamic system description”. Thursday 17th, 17:40 - 18:00. Computational Statistics and Data Analysis (Session 3) Chair: Peter Filzmoser, Room: H, abstracts see page 156 to 158 Roman Schefzik; Thordis Thorarinsdottir; Tilmann Gneiting. “Physically coherent probabilistic weather forecasts via discrete copula-based ensemble postprocessing methods”. Thursday 17th, 16:20 - 16:45. Heiko Grönitz. “Regressionsanalysen für indirekte Daten”. Thursday 17th, 16:45 - 17:10. Stefan Rameseder; Dominik Liebl. “Bidding Curve Dynamics”. Thursday 17th, 17:10 - 17:35. Max Schneider; Gilles Blanchard; Christian Levers; Tobias Kuemmerle. “Spatial variation of drivers of agricultural abandonment with spatially boosted models”. Thursday 17th, 17:35 - 18:00. Other events on Thursday 18:00 : DStatG General Assembly Meeting .Room A (Hörsaal 5) 11:15 : “BallinStadt” emigration museum 14:00 : Miniatur Wunderland: The largest model railway in the world 41 15.-18. September, Hamburg Statistische Woche 2015 Friday, September 18th, 2015, 09:00 - 10:40 Labour Market and Social Security (Session 2) Chair: Bernd Hofmann, Room: E, abstracts see page 158 to 160 Holger Meinken. “Neue Datenquelle für die Statistik zur Arbeitnehmerüberlassung”. Friday 18th, 09:00 - 09:25. Sandra Renn; Maren Rinn. “Wie lange dauern Beschäftigungsverhältnisse? Ein Werkstattbericht”. Friday 18th, 09:25 - 09:50. Gerald Seidel. “Der Einfluss regionaler Feiertage auf die frühzeitige Arbeitsuchend-Meldung”. Friday 18th, 09:50 - 10:15. Statistical Theory and Methodology (Session 2) Chair: Rolf Tschernig, Room: B, abstracts see page 160 to 162 Matei Demetrescu; Danvee Floro. “Robust IV-based Panel Tests of Stock Return Predictability and U.S. Monetary Policy Surprises”. Friday 18th, 09:00 - 09:25. Michael Scholz; Martin Wagner. “Large Initial Values and Time Series Tests of the Convergence Hypothesis”. Friday 18th, 09:25 - 09:50. Philipp Otto; Robert Garthoff. “Generalized Spatial Autoregressive Conditional Heteroscedasticity”. Friday 18th, 09:50 - 10:15. Rolf Tschernig; Niels Aka. “Model Confidence Sets for Lag Selection in Autoregressive Models”. Friday 18th, 10:15 - 10:40. Nonparametric and Robust Statistics (Session 1) Chair: Christine Müller, Room: C, abstracts see page 162 to 163 Gentiane Haesbroeck. “Multivariate dispersion estimated by the Minimum Covariance Determinant Estimator”. Friday 18th, 09:00 - 09:50. Sebastian Szugat; Christine H. Müller. “Using data depth to find prediction intervals for state dependent Poisson processes with application to fatigue experiments”. Friday 18th, 09:50 - 10:15. 42 Statistische Woche 2015 15.-18. September, Hamburg Dieter Schell. “On Robust Tail Index Estimation”. Friday 18th, 10:15 - 10:40. Time Series with Structural Breaks (Session 5) Chair: Martin Wendler, Room: A, abstracts see page 164 to 165 Joseph Tadjuidje Kamgaing; Claudia Kirch. “Change-point tests based on estimating functions”. Friday 18th, 09:00 - 09:25. Christina Stöhr. “Robust procedures in the sequential change-point analysis”. Friday 18th, 09:25 - 09:50. Leonid Torgovitski. “Perfect estimation in short panel data”. Friday 18th, 09:50 - 10:15. Jana Mareckova. “Detecting Structural Breaks in Small Samples with a Fusion Penalty”. Friday 18th, 10:15 - 10:40. Coffee Break: 10:40 - 11:10 Friday, September 18th, 2015, 11:10 - 12:50 Labour Market and Social Security (Session 3) Chair: Horst Gabriel, Room: E, abstracts see page 166 to 167 Katharina Dengler. “Effectiveness of Sequences of Classroom Training for Welfare Recipients: What works best in West Germany?” Friday 18th, 11:10 - 11:35. Eva Kopf;Katrin Hohmeyer. “Long-term care and labour market performance of welfare recipients in Germany”. Friday 18th, 11:35 - 12:00. Henning Schridde. “Wohnsituation und -kosten in der Grundsicherung für Arbeitsuchende zwischen Entspannung und Anspannung”. Friday 18th, 12:00 - 12:25. Statistical Theory and Methodology (Session 3) Chair: Stepan Mazur, Room: B, abstracts see page 167 to 169 Clemens Elster; Gerd Wübbeler. “Objective Bayesian inference for linear Gaussian random coefficient regression with inhomogeneous within-class variances”. Friday 18th, 11:10 - 11:35. 43 15.-18. September, Hamburg Statistische Woche 2015 Achim Dörre; Rafael Weißbach. “Bayesian Estimation of a Proportional Hazards Model for Doubly Censored Durations”. Wednesday 16th Poster presentation and Friday 18th, 11:35 - 12:00. Miriam Isabel Seifert. “Extreme value analysis for elliptical distributions and their generalizations”. Friday 18th, 12:00 - 12:25. Taras Bodnar; Stepan Mazur; Krzysztof Podgorski. “Singular Inverse Wishart Distribution with Application to Portfolio Theory”. Friday 18th, 12:25 - 12:50. Nonparametric and Robust Statistics (Session 2) Chair: Gentiane Haesbroeck, Room: C, abstracts see page 169 to 171 Stefan Meinke. “Modeling of crack propagation in different steel specimens with stochastic differential equations by using trimmed likelihoods”. Friday 18th, 11:10 - 11:35. Nora Dörmann. “Nonparametric estimation of replacement rates”. Friday 18th, 11:35 - 12:00. Dominik Liebl. “Multiple Bandwidth Selection for Smoothing Sparse Functional Data with Covariate Adjustment”. Friday 18th, 12:00 - 12:25. Alexandra Lauer;Henryk Zähle. “Nonparametric estimation of risk measures of collective risks”. Friday 18th, 12:25 - 12:50. 44 Statistische Woche 2015 15.-18. September, Hamburg 1 Monitoring and Improving Surgical Outcome Quality Bill Woodall1 Department of Statistics, Virginia Tech, USA SECTION: Plenary Some statistical issues related to the monitoring of surgical outcome quality will be reviewed. The important role of risk-adjustment in healthcare, used to account for variations in the condition of patients, will be described. Some of the methods for monitoring quality over time, including a new one, will be outlined and illustrated with examples. The American College of Surgeons National Surgical Quality Improvement Program (NSQIP) will be described, along with a case study demonstrating significant improvements in surgical infection rates and mortality. 2 Exponential-family random graph models with local dependence Michael Schweinberger1 Rice University, USA SECTION: Plenary Dependent phenomena, such as relational, spatial, and temporal phenomena, tend to be characterized by local dependence in the sense that units which are close in a well-defined sense are dependent. However, in contrast to spatial and temporal phenomena, relational phenomena tend to lack a natural neighborhood structure in the sense that it is unknown which units are close and thus dependent. An additional complication is that the number of observations is 1, which implies that the dependence structure cannot be recovered with high probability by using conventional high-dimensional graphical models. Therefore, researchers have assumed that the dependence structure has a known form. The best-known forms of dependence structure are inspired by the Ising model in statistical physics and Markov random fields in spatial statistics and are known as Markov random graphs. However, owing to the challenge of characterizing local dependence and constructing random graph models with local dependence, conventional exponential-family random graph models with Markov dependence induce strong dependence and are not amenable to statistical inference. We take first steps to characterize local dependence in random graph models and show that local dependence endows random graph models with desirable properties which make them amenable to statistical inference. We show that random graph models with local dependence satisfy a natural domain consistency condition which every model should satisfy, but conventional exponential-family random graph models do not satisfy. In addition, we discuss concentration of measure results which suggest that random graph models with local dependence place much mass on graphs which resemble real-world networks, in contrast to conventional exponential-family random graph models. We discuss how random graph models with local dependence can be constructed by exploiting either observed or unobserved neighborhood structure. Last, but not least, we show that if the neighborhood structure is unknown, the neighborhood memberships of almost all nodes can be recovered with high probability provided that the random graph is large and the neighborhoods are 45 15.-18. September, Hamburg Statistische Woche 2015 small but not too small. We present simulation results and applications to two real-world networks with ground truth. 3 Analysis and Modelling of Categorical Time Series Christian Weiß1 Helmut-Schmidt-Universität Hamburg, Germany, [email protected] SECTION: Poster Presentation During the last years, there has been growing interest in time series with a categorical range. Due to this type of range, standard tools of time series analysis cannot be applied, not even a plot of such categorical time series is easily possible. Therefore, this presentation aims at providing an overview of possible ways of analyzing categorical time series. Among others, types of serial dependence within categorical processes and corresponding measures are discussed, their properties are analyzed. A possible application of such tools for analyzing categorical time series is the identification and fitting of appropriate models. One candidate is the NDARMA model, which is a discrete counterpart to the usual ARMA model and shows an ARMA-like serial dependence structure (in terms of the above measures). But also further types of models for categorical time series are surveyed. References: Bagnato, L., Punzo, A., Nicolis, O., 2012. The autodependogram: a graphical device to investigate serial dependences. J. Time Series Anal. 33, 233-254. Biswas, A., Song, P.X.-K., 2009. Discrete-valued ARMA processes. Statist. Probab. Lett. 79, 18841889. Jacobs, P.A., Lewis, P.A.W., 1983. Stationary discrete autoregressive-moving average time series generated by mixtures. J. Time Series Anal. 4 (1), 19-36. Weiß, C.H., 2008. Visual analysis of categorical time series. Stat. Methodol. 5 (1), 56-71. Weiß, C.H., 2011. Empirical measures of signed serial dependence in categorical time series. J. Stat. Comput. Simul. 81(4), 411-429. Weiß, C.H., 2013. Serial dependence of NDARMA processes. Comput. Statist. Data Anal. 68, 213238. 4 How to find the best publication strategy Lisiane Schnegelsberg1 , Steffen Liebscher, Thomas Kirschstein Martin-Luther-Universität Halle-Wittenberg, Germany, [email protected] SECTION: Poster Presentation The amount of publications in peer-reviewed scientific journals and their quality are popular metrics for assessing a researcher’s performance. Hence, an individual aiming to optimize his/her performance has to make decisions about the journals where his/her research is to be published. The journals differ w.r.t. various criteria such as impact, review time, review system, etc. Based on the individual’s priorities (and other constraints) different publication strategies can be deduced. 46 Statistische Woche 2015 15.-18. September, Hamburg In this work, we use the Graphical Evaluation and Review Technique (GERT) for describing the publication process. This technique allows to model each step in the publication process taking into account stochastic components (i.e. probability of acceptance or review time). This way the publication process can be assessed by performance indicators (as expected publication time or acceptance probability) which helps selecting an appropriate journal considering individual preferences. The applicability of the model to derive the optimal publication strategy will be illustrated with real- world data. 5 Forecasting volatility with empirical similarity and Google Trends Moritz Heiden1 , Alain Hamid Universität Augsburg, Germany, [email protected] SECTION: Poster Presentation This paper proposes an empirical similarity approach to forecast weekly volatility by using search engine data as a measure of investors attention to the stock market index. Our model is assumption free with respect to the underlying process of investors attention and significantly outperforms conventional time-series models in an out-of-sample forecasting framework. We find that especially in high-volatility market phases prediction accuracy increases together with investor attention. The practical implications for risk management are highlighted in a Value-at-Risk forecasting exercise, where our model produces significantly more accurate forecasts while requiring less capital due to fewer overpredictions. 6 Arbeitsmarktindikatoren im regionalen Vergleich Horst Gabriel1 Bundesagentur für Arbeit, Germany, [email protected] SECTION: Poster Presentation Im Hinblick auf das Schwerpunktthema der Stat. Woche Indikatoren für das politische Monitoring“ ” können Deutschlandkarten mit Kreisgebieten für durch die Statistik der BA veröffentlichte Indikatoren erstellt werden. Beispielsweise sind 8 Karten auf A0 geplottet. Folgende Indikatoren können dafür genutzt werden: * Arbeitslosenquote * Unterbeschäftigungsquote * Hilfequoten * Beschäftigungsquoten * Langzeitarbeitslose * Ausländer * Personen mit Migrationshintergrund * Wohnkosten * Sanktionen 7 Potential Parenthood and Career Progression of Men and Women A Simultaneous Hazards Approach Martin Biewen, Stefanie Seifert1 Universität Tübingen, Germany, [email protected] SECTION: Poster Presentation We analyze individual career courses of men and women in Germany. Our particular focus is on the 47 15.-18. September, Hamburg Statistische Woche 2015 association between career transitions and individual fertility. In contrast to most of the literature we focus on potential rather than realized fertility. Measuring career status in terms of the number of subordinates directly supervised by a given person, we focus on career transitions of men and women before the birth of a first child. Our analysis is based on the ALWA data set from the Institute for Employment Research. It contains the life histories of more than 10,400 individuals. To model the parenthood hazard simultaneously with the career transition hazards we estimate a multivariate proportional hazard model with competing risks, in which the parenthood hazard enters as an explanatory variable in the career transition equations. As explanatory variables we consider socioeconomic variables as well as regional information and effects of duration dependence and lagged duration dependence. In order to address the aspect of unobserved individual characteristics, we also consider a fixed effects panel data model. Our results suggest that the effects on the timing of first birth are relatively similar for women and men, but gender differences are prevalent in the estimated coefficients of the career hazard equations. For our main variable of interest, the results suggest that the parenthood hazard is significantly negatively related to women’s horizontal job mobility. For men, the results suggest a significant positive association of the parenthood hazard with upward transitions and insignificant effects for downward and horizontal transitions. These results persist if we allow for a correlation of parenthood hazards with unobserved individual characteristics such as time- or spell-constant personal preferences. In one specification, we also find a significant (but smaller) negative effect on female upward career mobility. 8 The restlos package – robust estimation of location and scatter Steffen Liebscher1 , Thomas Kirschstein Martin-Luther-Universität Halle-Wittenberg, Germany, [email protected] SECTION: Poster Presentation The restlos package is an R package available on CRAN which implements several new methods for (highly) robust estimation of multivariate location (mean and mode) and scatter. Inherently, all methods can also be used for outlier detection. The methods are based on self-organizing maps (flood algorithm), minimum spanning trees (pMST), Delaunay triangulations (RDELA), and minimum volume convex sets (MVCH). The poster gives an overview on how to efficiently use the package. A small example is provided for each method in order to demonstrate how the corresponding package functions should be used and how the resulting numerical and graphical outputs can be interpreted. Current limitations of the package and possible directions for future improvements are outlined as well. 9 Threshold Effects of Financial Stress on Monetary Policy Rules: A Panel Data Analysis Danvee Floro1 , Björn van Roye University of Kiel, Germany, [email protected] SECTION: Poster Presentation We test for regime-switching changes in monetary policy’s response to increases in financial stress 48 Statistische Woche 2015 15.-18. September, Hamburg across a panel of advanced and emerging economy central banks by employing a Factor Augmented Dynamic Panel Threshold (FA-DPT) regression in order to tackle the issue of cross-section dependence. We find evidence of an asymmetric monetary policy response from advanced economy central banks in different financial stress regimes. We find that that the exceptional circumstances surrounding the global financial crisis exacerbated the effect of financial stress on advanced economy central banks’ interest-rate settings, such that monetary policy easing was substantial during this period. Meanwhile, emerging market central banks react to financial stress by raising short-term interest rates, but only up to a certain threshold, beyond which the interest rate response is insignificant. Our results are specific to the type of financial stress considered in the analysis. Stock market and banking stresses are driving advanced economy central banks’ interest rate decisions to loosen monetary policy in the face of high financial instability. On the other hand, emerging market central banks adjust interest rates positively in response to the overall financial stress, banking and foreign exchange stress subcomponents only when financial stress is low or moderate, and appear to be more sensitive to stock market stress. Our results also confirm the intuition that currency stabilization is a major driver in most emerging market central banks’ interest rate reaction functions. 10 A survey on wind power in Germany and prediction of wind speed at a wind farm Daniel Ambach1 , Philipp Otto Europa-Universität Viradrina, Germany, [email protected] SECTION: Poster Presentation Germany is within the European Union the country with the largest amount of installed wind capacity in 2013 of 33, 730 MW, as the European Wind Energy Association (2014) points out. Moreover, Germany is the third biggest wind electricity producer worldwide (see World Wind Energy Association 2014). This poster presents the actual wind power situation in Germany. Moreover, we will cover the spatial dependence structure of wind speed and wind power using stochastic matrices of spatial weights. The importance of wind energy is increasing, but there is only one major problem of wind power, which might be a barrier for increasing investments. Wind power is volatile because by now, there is no feasible opportunity to store the amounts of wind power. When the wind speed rises, it is absolutely essential that the wind turbines produce energy as quick as possible so that no electricity is wasted. However, if there is no need for wind power at the electricity market it would be inefficient to produce a high amount of power. Hence, it is inevitable to have reliable predictions of the upcoming wind power. Alternatively, when there is wind and the wind power could be sold at the market for a good price, it is straightforward to have reliable short-term to medium-term predictions (up to 24 hours). Those predictions optimize the power production and help to raise the interest of wind power. There exist a huge variety of different wind speed and wind power forecasting approaches (see Jung and Broadwater 2015). For the prediction interval up to 24 hours we obtain good results with time series models like for example Ambach and Schmid (2015). Clearly, if we incorporate the spatial dimension, it is obvious that we can enhance the forecasting performance. One recent approach is given by Zhu et al. (2014). To incorporate the spatial dimension of wind speed into a time series model, we define the following matrix, which changes with the measured wind direction and is given by 49 15.-18. September, Hamburg Statistische Woche 2015 0& · · · & max (G(Z(t)1,m ), 0)k & · · · & max (G(Z(t)1,M ), 0)k .. . . .. . . .. .& . &.& . &. k k ωt = max (G(Z(t)h,1 ), 0) & · · · &0& · · · & max (G(Z(t)h,M ), 0) , .. . . .. . . .. .& . &.& . &. (10.1) max (G(Z(t)M,1 ), 0)k & · · · & max (G(Z(t)M,m ), 0)k & · · · &0 where the function G can be the sine or cosine function and k ∈ R\0. {ωt } is an (M · D) × (M · D) weight matrix for m, h ∈ {1, . . . , M } stations at point t ∈ {1, . . . , T } and D response variables. The function Z(t) is given by Z(t)h,m = |azh,t − azh,m | (10.2) with {azm,t } being the observed wind direction at station m for time t. Besides, {azh,m } is the angle from station h to station m and {azm,h } is the reverse angle from station m to station h. Obviously, the off-diagonal entries of ω t weighting the spatial effects depend on the point of time t and the wind direction at each station m. Consequently, this matrix is stochastic. On the contrary, classical spatial weighting matrices are assumed to be non-stochastic. Furthermore, this weight matrix has to be extended to incorporate the distances between all stations or an additional weight matrix should be introduced. Finally, the main contribution of this presentation is an overview about the actual situation of wind power in Germany. Moreover, we introduce a stochastic weight matrix which incorporates spatial information into the wind speed prediction model. Therefore, we are able to perform wind speed predictions in space and time. • 1 Ambach D., Schmid W. (2015); Periodic and long range dependent models for high frequency wind speed data. Energy 82:277-293. • 2 E.W.E.A. (2014); The European Wind Energy Association, Wind in power, 2013 European statistics, 2014, EWEA: Brussels. • 3 Jung J., Broadwater R. P. (2014); Current status and future advances for wind speed and power forecasting. Renewable and Sustainable Energy Reviews 31:762-777 . • 4 Zhu X., Genton M.G., Gu Y., Xie L. (2014); Space-time wind speed forecasting for improved power system dispatch. Test 23(1):1-25. • 5 W.W.E.A. (2014); The World Wind Energy Association, World Wind Energy Half-Year Report 2014, WWEA, Bonn. 11 Hybridalgorithmus zur Schätzung von robusten räumlichen Small Area Modellen Ralf Münnich, Philip Rosenthal1 , Ekkehard Sachs Universität Trier, Germany, [email protected] SECTION: Poster Presentation Der Bedarf an regional oder inhaltlich differenzierten Daten steigt in Politik, Wissenschaft und Wirtschaft stetig an. Aus Kostengründen werden Stichproben allerdings oft nur auf aggregierter Ebene gezogen. Sind die Stichprobenumfänge zu klein um eine angemessene Präzision klassischer Schätzverfahren 50 Statistische Woche 2015 15.-18. September, Hamburg auf disaggregierter Ebene zu gewährleisten, können modellgestützte Small Area Methoden verwendet werden. Sollen zudem räumliche Effekte berücksichtigt werden und die Schätzung robust gegenüber Ausreißern sein, welche besonders bei Wirtschafts- und Einkommensdaten oft zu beobachten sind, kann das robuste räumliche Small Area Modell verwendet werden. Auf Grund der hohen Komplexität des Modells ist eine geschlossene Lösung der auftretenden Gleichungen nicht mehr möglich. Für eine Anwendung des Modells in der Praxis ist es daher wichtig, einen Algorithmus zu finden, der in möglichst vielen Fällen brauchbare Ergebnisse liefert. Selbst das oft verwendete Newton-Verfahren stößt bei dem Versuch einer numerischen Lösung des robusten räumliche Small Area Modells zunächst an seine Grenzen. Es wird ein neues Hybridverfahren vorgestellt, bei dem das zu lösende Gleichungssystem in zwei Teile aufgeteilt wird, die anschließend mit jeweils unterschiedlichen numerischen Algorithmen gelöst werden. Anschließend wird diese neue Methode zur Berechnung von robusten räumlichen Small Area Schätzern an Einkommensdaten aus einem EU-SILC ähnlichen Datensatz angewendet. 12 Soziale Segregation im Schulsystem Hamburgs Sebastian Leist1 , Marcus Pietsch Institut für Bildungsmonitoring und Qualitätsentwicklung (IfBQ), Hamburg, Germany, [email protected] SECTION: Poster Presentation Der Beitrag fokussiert, räumlich differenziert, soziale Segregationsprozesse beim Wechsel einer Schülerkohorte von der Grundschule zur weiterführenden Schule. Die zugrundeliegende räumliche Gliederung erfolgt anhand von Schulregionen, die stochastisch mit Verfahren der sozialen Netzwerkanalyse definiert sind (Leist & Pietsch, i.V.). Das Ausmaß an sozialer Segregation beim Übergang von der wohnortnahen Beschulung zur auf Auswahl basierenden Beschulung wird durch das Abschneiden der Einzelschulen in der lokalen Konkurrenzsituation beeinflusst (Harris, 2011 und Reardon & O’Sullivan, 2004). Methodische Grundlage der Schulregionen bilden stochastische Netzwerkverfahren zur Ermittlung von Gruppen anhand der Akteursbeziehungen untereinander (Templin, 2008 und Krivitsky & Handcock, 2008). Das Beziehungsgeflecht zwischen den Schulen basiert auf den Übergängen sämtlicher Schüler von der Grundschule zur weiterführenden Schule innerhalb der Freien und Hansestadt Hamburg. 13 Regionaler Anteil kariesfreier Vorschulkinder – eine cluster-randomisierte Studie in Südhessen – Rafael Weißbach1 , Michael Herzog Uni Rostock, Germany, [email protected] SECTION: Poster Presentation Für Kinderärzte und Zahnärzte gibt der Zustand der Milchzähne unter anderem Hinweise auf das Ernährungsverhalten der Kinder und die gesundheitliche Einstellung der Eltern. Erfreulich ist, dass der Anteil kariesfreier Vorschulkinder in Deutschland in den letzten 30 Jahren durch zahnmedizinische Präventionsmaßnahmen stetig zugenommen hat. Dieser positive Trend über den Zeitraum von 1978 51 15.-18. September, Hamburg Statistische Woche 2015 bis 1998 wird beispielsweise anhand Hamburger Daten sichtbar. Hier stieg der Anteil kariesfreier 3- bis 6-Jähriger von 9,0% (1978) über 25,7% (1987) auf 65,9% (1998). Wiederkehrende Untersuchungen in Regionen Mittel- und Südhessens durch eine Initiative hessischer Jugendzahnärzte ergaben in neuerer Zeit eine ebenfalls positive Entwicklung der Anteile kariesfreier 3- bis 5-jähriger Kinder von 66,8% (2004) über 67,5% (2006) und 71,7% (2008) auf 74,2% (2011). Andere regionale Studien mit 3- bis 5-Jährigen berichten z.B. für den Raum Gießen 62,7% (1996), für Hannover 62,3% (2000), für den Kreis Steinburg 69,5% (2003) und für den Ennepe-Ruhr-Kreis (nur 3- und 5-Jährige) 70,2% (2006). Die Häufigkeit der Befunde zahngesund“, die dem Anteil kariesfreier Kinder in der untersuchten Populati” on entspricht, gewinnt als Prävalenzmaß für Vergleiche und Trendbeobachtungen zur Zahngesundheit sowie im Hinblick auf die Planung präventiver Interventionen in Kindergärten an Bedeutung. Trendergebnisse dienen unter anderem auch dem Einsatz und der Steuerung von Ressourcen. Insgesamt sind kariesepidemiologische Studien bei Vorschulkindern im Vergleich zu solchen bei Schulkindern allerdings selten. Lediglich in Hessen ist die Datenlage günstiger und wurde durch Studien der Gesundheitsämter weiter verbessert. Ziel der vorliegenden Untersuchung in einem hessischen Landkreis im Jahr 2009 war die Bestimmung der Anteile kariesfreier Vorschulkinder im Alter zwischen 3 und 5 Jahren erstmalig mit dem Studiendesign einer randomisierten Clusterstichprobe aus der Grundgesamtheit der Kindergärten des Landkreises. Die Ergebnisse dienten der Bewertung der zahnmedizinischen Gruppenprophylaxe nach § 21 SGB V und wurden mit denen anderer deutscher Studien über einen Zeitraum von 1996 bis 2011 verglichen. Weiterhin wurde statistisch geprüft, ob die vorhandenen Anteilswerte aus diesen Studien im Zeitverlauf von 15 Jahren einen bestimmten Trend belegen können. 14 Ursachen und Wandel von Pflegebedürftigkeit Rainer Unger1 SOCIUM - Forschungszentrum soziale Ungleichheit und Sozialpolitik, Uni Bremen, Germany, [email protected] SECTION: DGD In dem Übersichtsbeitrag werden eigene Befunde sowie der Forschungsstand zum Wandel der Lebenserwartung in und frei von Pflegebedürftigkeit für Männer und Frauen in Deutschland vorgestellt. Darüber hinaus werden Gründe für diese Entwicklung dargestellt, ihre Bedeutung für den steigenden Pflegebedarf diskutiert, sowie Schlussfolgerungen für den Wandel der Pflegedauern gezogen. Des Weiteren wird auf die Rolle von sozialen Einflüssen auf die Pflegehäufigkeiten, beispielsweise in Form des Einkommens bei der Erklärung unterschiedlicher Pflegeprävalenzen zwischen West- und Ostdeutschland sowie auf Netzwerkeinflüsse und ökonomische Ressourcen - auch in ihrem Wechselspiel - beim Pflegeeintritt eingegangen. Der Beitrag schließt mit einer Prognose zur Entwicklung der Zahl der Pflegebedürftigen bis zum Jahr 2060 auf Grundlage der neuen 13. Bevölkerungsvorausberechnung des Statistischen Bundesamtes im Vergleich zu bisherigen Prognosen. 15 Die Auswirkungen des demographischen Wandels auf die Pflegeversorgung in Grenzregionen Joscha Krause1 , Aiko Kühn, Ralf Münnich Wirtschafts- und Sozialstatistik, Universität Trier, Germany, [email protected] 52 Statistische Woche 2015 15.-18. September, Hamburg SECTION: DGD Der demographische Wandel war in den vergangenen Jahren Gegenstand zahlreicher Forschungsarbeiten. Trotz weitreichender Konsequenzen für die Stabilität der sozialen Sicherungssysteme, wurden die Folgen für Pflegenachfrage und -angebot bisher wenig thematisiert. Insbesondere für kleinere Regionen gibt es kaum reliable Abschätzungen der möglichen Folgen. Besonders interessante Aspekte ergeben sich in der Ausgestaltung der Pflegesituation in Grenzregionen. Zum Einen können die demographischen Entwicklungen zweier benachbarter Grenzgebiete sehr unterschiedlich ausfallen. Zum Anderen stellen die wechselseitigen Interdependenzen eine Chance zur gemeinsamen Weiterentwicklung der Versorgungsstrukturen dar. Im Rahmen des Vortrages werden zwei Regionen untersucht, Basel/Lörrach sowie Luxemburg/Trier. In der Region Basel/Lörrach gehen die Prognosen zur demographischen Entwicklung signifikant auseinander. Gerade für getrennte Betrachtungen der Pflege ergeben sich Prognosen, die aufgrund von grenznahen Anpassungsprozessen kaum zutreffen werden. In den Forschungsarbeiten wird Pflege und Pflegebedürftigkeit des Landkreises Lörrach sowie des Kantons Basel untersucht. Hierbei steht die Pflege als gesamtgesellschaftliche Aufgabe sowie das Potential einer grenzüberschreitenden Pflegeregelung im Fokus. Die Ausgestaltung einer internationalen Pflegeregelung wird als Chance angesehen, die individuelle Pflegebelastung zu reduzieren und auch die Versorgungsqualität der Betroffenen zu steigern. Neben der Region Basel/Lörrach wird die Entwicklung der Pflegeversorgung in der Region Luxemburg/Trier analysiert. Hier ergeben sich Differenzen aufgrund von sprachlichen Unterschieden sowie einer stärkeren räumlichen Trennung. Im Rahmen der Untersuchungen wird eine Simulationsstudie durchgeführt. Hierbei werden Bevölkerungsfortschreibungen mit Pflegeverläufen verknüpft, um geeignete Prognosen von Pflegeangebot und -nachfrage quantifizieren zu können. Ein besonderes Augenmerk wird auf zwei Aspekte gelegt: 1. Die Entwicklung der Pflegeverläufe in Bezug auf die Pflegestufen könnten sich stark auf Pflegebedarf und erwartete Kosten auswirken. 2. In Grenzregionen werden besondere Anpassungsprozesse in Bezug auf Wohnraum- und Pflegenachfrage erwartet. Die Untersuchungen sollen die erwarteten Unterschiede aufzeigen sowie mögliche Anpassungseffekte quantifizieren. 16 Risiko für Pflegebedürftigkeit von Demenzpatienten hängt vom behandelndem Arzt ab Anne Fink1 , Gabriele Doblhammer Deutsches Zentrum für Neurodegenerative Erkrankungen, Bonn, Germany, [email protected] SECTION: DGD Vor dem Hintergrund der Bevölkerungsalterung wird sich die Anzahl von pflegebedürftigen Demenzerkrankten erhöhen, steigende Kosten für deren Versorgung sind zu erwarten. Die vorliegende Studie untersucht für Demenzpatienten mögliche Modifikatoren, die sowohl den Eintritt in die Pflegebedürftigkeit als auch den Übergang in höhere Pflegstufen verzögern können. Es werden die Übergänge inzidenter Demenzpatienten in Pflege und Tod in Abhängigkeit vom hauptsächlich behandelnden Arzt (Neuropsychiater vs. anderer Facharzt) und der Einnahme von Antidementiva untersucht. Dabei wird nach der 53 15.-18. September, Hamburg Statistische Woche 2015 Pflegestufe unterschieden. Es wurden Längsschnittdaten der AOK für die Jahre 2006 bis 2010 verwendet. Für 10.043 inzidente Demenzfälle wurden Cox -Modelle durchgeführt, um das Risiko von Pflegebedürftigkeit und Tod, aufgegliedert nach Pflegestufen, zu analysieren, abhängig vom hauptsächlich behandelndem Arzt und der Einnahme von Antidementiva bereinigt für Alter, Geschlecht, kardiovaskuläre Begleiterkrankungen und der vorherigen Pflegestufe. Patienten, die in erster Linie von Neuropsychiatern behandelt wurden, hatten ein signifikant niedrigeres Risiko für Pflegebedürftigkeit als Patienten, die vor allem von anderen Fachärzten behandelt wurden (1. Pflegestufe: RR = 0, 72, p = 0, 000; 2. Pflegestufe: RR = 0, 78, p = 0, 000; 3. Pflegestufe: RR = 0, 67, p = 0, 001). Weiterhin wiesen sie ein geringeres Sterberisiko auf. Die Einnahme von Antidementiva korrelierte mit einem erhöhten Risiko für Pflegebedürftigkeit (1. Pflegestufe: RR = 1, 66, p = 0, 000; 2. Pflegestufe: RR = 1, 50, p = 0, 000; 3. Pflegestufe: RR = 1, 48, p = 0, 000), aber mit einem geringeren Sterberisiko. Eine höhere Behandlungsrate von Demenzpatienten durch einen Spezialisten ist mit einem geringerem Pflegebedürftigkeits- und Sterberisiko assoziiert. Eine medikamentöse Behandlung mit Antidementiva scheint mit einer Verlängerung der Lebensjahre mit Demenz einherzugehen. 17 Entwicklung sektorübergreifender Versorgungsstrukturen – Ergebnisse aus dem Modell Regionales Versorgungskonzept Geriatrie Charlotte Şahin1 , Olaf Iseringhausen, Kira Hower, Anja Rethmeier-Hanke, Hans-Christian Körner, Constanze Liebe, Uwe Borchers, Bernd Wedmann Universität Bielefeld, Germany, [email protected] SECTION: DGD Hintergrund: Die Gesundheitsversorgung älterer, multimorbider Menschen ist komplex und erfordert, Bedarfslagen insbesondere im häuslichen Umfeld zu berücksichtigen. Eine spezialisierte, segmentierte medizinische Versorgung greift oft zu kurz. Neue Versorgungsmodelle wie das “Regionale Versorgungskonzept Geriatrie” (RVG) setzen an vielschichtigen Unterstützungsbedarfen an, um Selbstständigkeit und den Verbleib in der eigenen Häuslichkeit zu fördern. Die Bedeutung einer fallbezogenen, sektorübergreifenden Koordination und Steuerung durch ein interdisziplinäres Case Management (CM) haben ein Klinikum und Ärztenetz gemeinsam im Kreis Lippe (5-10 Fragestellung: Die formative Projektevaluation geht den Fragen nach, wie sich die Versorgungssituation geriatrischer Patienten in der Häuslichkeit darstellt, ob mit einem multidisziplinären, sektorenübergreifenden Versorgungsnetzwerk die Versorgung verbessert, Selbstständigkeit erhalten werden kann und ob/wie Netzwerkstrukturen mit Leistungserbringeden und ggf. Angehörigen etabliert wurden. Methode: Die Versorgungs- und Unterstützungsbedarfe der Teilnehmenden sowie die Etablierung von Strukturen und Prozessen wurden in einem explorativen Studiendesign mittels Methodenmix untersucht. Die Ergebnisdarstellung umfasst geriatrische Assessments zu Beginn und nach 12 Monaten (N=750, Sample n=380) sowie Struktureffekte (sektoren-/disziplinübergreifende Netzwerkbildung aus Leistungserbringenden, Entwicklung eines geriatrischen Versorgungspfades). Ergebnisse: Bei den Teilnehmenden besteht ein hoher Unterstützungsbedarf für funktionale Einschränkungen. Es sind keine Verschlechterungen der Selbstständigkeit (Barthel-Index) und der Alltagsfähigkeiten (IADL) eingetreten. Die körperliche Gesundheit bleibt stabil, das psychische Wohlbefinden hat sich signifikant verbessert (SF-12). Es zeigt sich eine hohe Akzeptanz und Zufriedenheit mit 54 Statistische Woche 2015 15.-18. September, Hamburg dem CM. Die Case Managerinnen koordinieren den Versorgungsprozess und knüpfen ein individuelles Versorgungsnetzwerk durch regelmäßigen Austausch. Diskussion: Das Konzept RVG hat die Versorgung nachhaltig verbessert, indem Versorgungsstrukturen vernetzt und positive Outcomes hinsichtlich Gesundheit und Selbstständigkeit erzielt wurden. Der Versorgungbedarf geriatrischer Patienten erfordert die systematische Vernetzung des medizinischen Sektors mit Unterstützungs- und Beratungsinstitutionen zur Förderung einer zielgerichteten, bedürfnisorientierten Versorgung. Entscheidend und handlungsleitend sind die kontinuierlichen, koordinativen Leistungen der Case Managerinnen, die bedarfsorientiert umgesetzt und bei verändertem Hilfebedarf angepasst werden. E-Mail: [email protected] 18 Die Lebensqualität pflegender Angehöriger: Befunde aus dem Deutschen Alterssurvey Sonja Nowossadeck1 , Daniela Klaus Deutsches Zentrum für Altersfragen, Berlin, Germany, [email protected] SECTION: DGD Die Zahl der Pflegebedürftigen steigt kontinuierlich. Im Jahr 2013 waren 2,6 Mio. Menschen in Deutschland pflegebedürftig - 30 Prozent mehr als 1999. Ein großer Teil dieser Pflegebedürftigen wird zu Hause durch Angehörige versorgt. Etwa zwölf Prozent der 40- bis 85-Jährigen in Deutschland unterstützt mindestens eine gesundheitlich eingeschränkte Person regelmäßig. Das sind fast 5,4 Millionen Menschen. Ein Drittel dieser Personen leistet Pflege. Anders formuliert: Die Pflegerate der 40- bis 85-Jährigen liegt bei etwa vier Prozent. Hochgerechnet sind das 1,8 Millionen Menschen (Klaus & Tesch-Römer 2014). Die Pflege von Angehörigen betrifft also einen großen Personenkreis und sie stellt häufig eine ernsthafte Belastung für die Pflegenden dar. Wir möchten untersuchen, ob es Unterschiede gibt in der Lebensqualität von pflegenden Angehörigen und Nicht-Pflegenden. Hinweise darauf gibt es in der Literatur (vgl. u.a. Winkler 2006, Perner et al. 2012, Kurz & Wilz 2011). Für die vorliegende Untersuchung werden Daten des Deutschen Alterssurveys (DEAS) (Basisstichprobe 2008, n = 6.205) analysiert. Der DEAS ist eine bundesweit repräsentative Quer- und Längsschnittbefragung von Personen, die sich in der zweiten Lebenshälfte befinden (d. h. 40 Jahre und älter sind). Als Indikatoren für die Lebensqualität werden die subjektive Gesundheit, die Lebenszufriedenheit sowie die Bewertung der sozialen Beziehungen der pflegenden Angehörigen untersucht. Mit Regressionsmodellen wird zum einen der Zusammenhang zwischen der Übernahme von Pflegetätigkeiten und den genannten Lebensqualitätsindikatoren unter Kontrolle individueller demografischer und sozioökonomischer Faktoren untersucht. In einem nächsten Schritt wird nur für die Gruppe der Pflegenden analysiert, ob bestimmte Merkmale der Pflege (Umfang der Pflege, Art der Aufgaben, zu pflegende Person) mit der Lebensqualität zusammenhängen. 19 Gesundheit, Lebenssituation und soziale Unterstützung bei pflegenden Angehörigen. Ergebnisse der Studie Gesundheit in ” Deutschland aktuell“ 2012 Alexander Rommel1 , Cornelia Lange, Matthias Wetzstein 55 15.-18. September, Hamburg Statistische Woche 2015 Robert Koch-Institut, Germany, [email protected] SECTION: DGD Hintergrund: In Deutschland werden etwa sieben von zehn pflegebedürftige Personen von Angehörigen und ambulanten Pflegediensten zu Hause versorgt. Während die Unterstützung und Pflege nahestehender Menschen grundsätzlich einen wichtigen und positiven Beitrag zum Zusammenleben leistet, bringt sie für die Betroffenen auch Belastungen mit sich. Bevölkerungsweite Daten zum Ausmaß und den gesundheitlichen Folgen der Pflege Angehöriger in Deutschland sind aber bislang rar. Fragestellung: Ziel ist es, die Häufigkeit der Angehörigenpflege in Deutschland differenziert nach soziodemographischen Merkmalen zu beschreiben und den Zusammenhang mit der Gesundheit der Pflegepersonen anhand zentraler Indikatoren zu analysieren. Die soziale Unterstützung als wichtige Ressource pflegender Angehöriger wird dabei besonders in den Blick genommen. Methode: In der Studie “Gesundheit in Deutschland aktuell - GEDA 2012” wurden von 2012 bis 2013 über 19.000 Menschen zu ihrer gesundheitlichen Lage und ihrer Lebenssituation telefonisch befragt. Die Studie ist repräsentativ für die volljährige, deutschsprachige Wohnbevölkerung in Privathaushalten, die über Festnetzanschlüsse erreichbar ist. Integriert waren drei Fragen zur Pflege nahestehender Personen (Leistungserbringung, Umfang der Leistungen, Beziehung zur pflegebedürftigen Person). Verglichen werden vor allem Nichtpflegende und Angehörige, die täglich mindestens zwei Stunden pflegen. Die soziale Unterstützung wurde über die Oslo-3 Social Support Scale gemessen. Neben einer Frage zum allgemeinen Gesundheitszustand gehen die Indikatoren Rückenschmerzen, krankheitsbedingten Einschränkungen und starke seelische Belastungen in die Bewertung der gesundheitlichen Lage ein. Die Kontrolle wichtiger Einflussfaktoren erfolgt über logistische Regression. Ergebnisse: Nach Ergebnissen von GEDA 2012 pflegen 8,7% der Frauen und 4,9% der Männer regelmäßig eine pflegebedürftige Person. Damit gibt es etwa 4,7 Millionen pflegende Angehörige in Deutschland. Nahezu neun von zehn pflegenden Angehörigen betreuen einen nahen Angehörigen innerhalb oder außerhalb des eigenen Haushalts, die übrigen unterstützen z.B. Freunde oder Nachbarn. Insgesamt sind etwa zwei Drittel der pflegenden Angehörigen Frauen, unter jenen, die täglich zwei Stunden oder mehr pflegen, sogar über drei Viertel. Pflegende Angehörige sind zu einem geringeren Anteil erwerbstätig als Nichtpflegende. Zudem berichten mit 36,1% Frauen und 37,7% der Männer pflegende Angehörige deutlich häufiger von einer geringen sozialen Unterstützung (Nichtpflegende: 17,1% vs. 16,2%). Pflegende Angehörige weisen signifikant häufiger als Nichtpflegende einen schlechten allgemeinen Gesundheitszustand auf und leiden stärker unter seelischen Belastungen und krankheitsbedingten Einschränkungen. So bezeichnen 47,7% der pflegenden Frauen und 51,8% der pflegenden Männer ihren Gesundheitszustand als schlecht oder sehr schlecht (Nichtpflegende: 30,6% vs. 27,4%). Vor allem bei den Frauen bleiben diese Unterschiede auch nach Kontrolle von Alter, Bildung, Erwerbstatus und sozialer Unterstützung bestehen. Eine höhere soziale Unterstützung ist sowohl bei pflegenden Angehörigen als auch bei Nichtpflegenden positiv mit dem Gesundheitszustand assoziiert. Teilweise zeigt sich aber, dass ein höheres Maß an sozialer Unterstützung die gesundheitlichen Belastungen pflegender Angehöriger mindern kann. Insbesondere die Unterschiede in Bezug auf seelische Belastungen zwischen pflegenden Angehörigen und Nichtpflegenden sind bei Personen mit geringer Unterstützung ausgeprägter aus als bei Personen mit hoher Unterstützung. Diskussion: Der überwiegende Teil der Pflegeleistungen in Deutschland wird nach wie vor privat erbracht. Der Anteil der Pflegenden liegt nach den Daten von GEDA 2012 deutlich über den Angaben aus der Pflegestatistik. Dies deutet darauf hin, dass Pflegeleistungen auch ohne Pflegegeldbezug von Angehörigen erbracht werden. Die Hauptlast der Pflege wird von Frauen getragen. Die damit verbunde- 56 Statistische Woche 2015 15.-18. September, Hamburg nen Belastungen gehen mit einer signifikant schlechteren Gesundheit von Pflegenden einher. Dabei zeigt sich die wichtige Bedeutung sozialer Unterstützung: Einerseits kann eine hohe soziale Unterstützung die gesundheitlichen Folgen, die durch die Pflege Angehöriger entstehen, teilweise reduzieren. Andererseits können pflegende Angehörige auf diese Ressource nur in deutlich geringerem Maß zurückgreifen. Praktische Implikationen: Die Gesundheit pflegender Angehöriger ist eine wichtige Ressource, wenn es darum geht, Pflegebedürftigen ein Leben in der gewohnten häuslichen Umgebung zu ermöglichen. Die häusliche Pflege ist damit als eigenständiges Setting für die Entwicklung gesundheitsfördernder Maßnahmen zu verstehen. Dabei sollten Ansätze, die bspw. über die Quartiersentwicklung die soziale Einbindung der Betroffenen verbessern können, verstärkt berücksichtigt werden. 20 Zusammenfassung zu Prognose des informellen Betreuungspotentials Älterer durch Ältere bis 2050 Benjamin Strohner1 Universität Rostock, Germany, [email protected] SECTION: DGD Im Verlauf des demografischen Wandels in Deutschland schrumpft und altert die Bevölkerung bei gleichzeitig steigender Anzahl der Hilfe- oder Pflegebedürftigen. Daraus ergibt sich das Problem der Sicherstellung der Versorgung dieser Bedürftigen. Eine politisch favorisierte Möglichkeit zur Lösung dieses Problems stellt die Nutzung von informellen Betreuungspotentialen Älterer (50+jähriger) aber noch nicht bedürftiger Teile der Bevölkerung dar. In diesem Aufsatz sollen durch eine Hochrechnung des Betreuungspotentials für 2012 und eine Prognose des Betreuungspotentials von 2013 bis 2050 die Möglichkeiten und Grenzen dieses Lösungsansatzes ausgeleuchtet werden. Das Betreuungspotential besteht hier nur aus Personen, die eine so enge Beziehung zu hilfe- oder pflegebedürftigen Personen aufweisen, dass eine informelle Betreuungsleistung auch höchstwahrscheinlich stattfinden wird. Die genutzte Untersuchungsmethode ist eine quotenbasierte Zeitreihenanalyse und -prognose. Die Untersuchung wird auf Basis von Daten des Sozioökonomischen Panels (SOEP) und der Pflegestatistik des Statistischen Bundesamtes durchgeführt. Im Ergebnis stellt sich das Verhältnis von Pflegebedürftigen zu Betreuungspotential bei den Älteren 2012 als ungünstig dar und verschlechtert sich in der Zukunft weiter. Zusätzlich sinkt die gesundheitliche Eignung des Betreuungspotentials. Dazu wird die Belastung der einzelnen Personen des Betreuungspotentials in Gestalt der Anzahl und Schwere der potentiellen Betreuungs- und Pflegefälle zunehmen. Daher kann das informelle Betreuungspotential älterer Teile der Bevölkerung nur einen nicht ausreichenden Beitrag zur Lösung des Versorgungssicherstellungsproblems leisten. 21 Regionalität des Bedarfes an den Gesundheitsberufen - Ergebnisse der regionalen BIBB-IAB-Qualifikations- und Berufsfeldprojektionen Betül Güntürk-Kuhl1 , Caroline Neuber-Pohl SECTION: DGD 57 15.-18. September, Hamburg Statistische Woche 2015 Bedingt durch die Alterung der Gesellschaft wird die Nachfrage nach Pflegeleistungen sowie die Beschäftigung in Senioreneinrichtungen oder ambulanten Pflegediensten in Zukunft massiv ansteigen und den Arbeitsmarkt nachhaltig beeinflussen. Anhand von BIBB-IAB-Qualifikations- und Berufsfeldprojektionen (QuBe-Projekt) werden modellbasiert die derzeitig bereits beobachtbaren Trends am Arbeitsmarkt fortgeschrieben und somit ein möglicher Entwicklungspfad des Arbeitskräfteangebots und der -nachfrage aufgezeigt. Differenziert nach sechs Regionen Deutschlands (Norddeutschland, NordrheinWestfalen, Mitte-West, Baden-Württemberg, Bayern und Ostdeutschland) ist es möglich, für das Berufshauptfeld der Gesundheitsberufe differenzierte Aussagen über regionale Wirtschaftsstrukturen und Arbeitskräfteengpässe zu treffen. Für Gesamtdeutschland betrachtet ist für die Gesundheitsberufe ab dem Jahr 2025 sowohl nach Köpfen als auch nach Stunden ein Arbeitskräfteengpass zu erwarten, der sich bei gleichbleibenden Verhaltensweisen (Lohnentwicklung, berufliche Flexibilität etc.) im Jahr 2030 noch weiter verschärfen wird. Die Nachfrage nach Berufen wird allerdings stark durch die regionale Wirtschaftsstruktur beeinflusst, wodurch sich regionale Diskrepanzen ergeben. Gespiegelt am gesamtdeutschen Durchschnitt ist die Zahl der Erwerbstätigen in der Branche Gesundheits- und Sozialwesen“ ” in den Bundesländern Berlin, Mecklenburg-Vorpommern und Schleswig-Holstein mit einer Abweichung von mindestens einem Prozentpunkt in 2011 besonders hoch. Während in den Regionen Nord und Nordrhein-Westfalen auch in Zukunft der Bedarf an Fachkräften in den Gesundheitsberufen gedeckt wird, zeichnen sich in den anderen vier Regionen zunehmende Knappheiten am Arbeitsmarkt ab. In der Region Mitte-West wird dieser ab 2025 und in Baden-Württemberg ab 2020 aufgrund des besonders großen Bedarfszuwachses erwartet. Bayern ist das einzige Bundesland, das keinen Bevölkerungsrückgang erlebt, was auch mit einem steigenden Bedarf an Erwerbstätigen im Gesundheitswesen einhergeht. Mit einem Engpass in den Gesundheitsberufen muss hier ab 2020 gerechnet werden. Insgesamt werden die größten Rekrutierungsschwierigkeiten Bayern und Baden-Württemberg betreffen. In Ostdeutschland werden der Bevölkerungsrückgang und die Alterung der Gesellschaft die deutlichsten Spuren hinterlassen. In den Gesundheitsberufen wird ein Arbeitskräfteengpass ab 2020 erwartet. 22 Was (gleich) nach dem Zensus kommt – Informationsmanagement auf Registerbasis. Beispiele und Perspektiven aus Europa Bettina Knauth1 Eurostat - European Commission, Luxembourg, [email protected] SECTION: VDSt Die letzte Zensusrunde (2011) hat gezeigt, dass Zensusoperationen in Europa immer vielgestaltiger werden und dabei auch insbesondere registergestützte Zensen immer häufiger zum Einsatz kommen. Der Vortrag beleuchtet die Vorteile einer solchen Nutzung von Registern und erläutert die dafür notwendigen Voraussetzungen anhand der erfolgreichen Registerzählungen in Dänemark und Österreich. Abschließend wird aufgezeigt, welche Unterstützung von Eurostat, dem statistischen Amt der Europäischen Union, für Mitgliedsländer zu erwarten ist, die in der Zukunft verstärkt Register für die Durchführung ihres Zensus nutzen wollen. 58 Statistische Woche 2015 15.-18. September, Hamburg 23 Eins für alle“ - Die Nutzung zentraler Register für Aufgaben eines ” nationalen Zensus und die kommunale Planung in den Niederlanden Eric Schulte Nordholt1 Census Statistics Netherlands, The Hague, The Netherlands, [email protected] SECTION: VDSt Es wird zunächst die Geschichte des Niederländischen Zensus dargestellt. Anschließend wird ein Blick auf die Methodik des Zensus 2011 geworfen. Das statistische Amt der Niederlande publiziert die Zensusergebnisse auf fünf Ebene. Bemerkenswert ist dass es in den Niederlanden so wenig Diskussion gibt über Bevölkerungsregister. Auch die darauf basierte Zensusergebnisse sind unumstritten. Es wird aufgezeigt, auf welche Art andere europäische Länder den Zensus 2011 durchgeführt haben. Die Basis für den Europäischen Zensus 2011 ist die Verordnung über Volks- und Wohnungszählungen. Im Rahmen dieser Verordnung standen den Ländern verschiedene Methodiken zur Durchführung offen. In den Niederlanden wurde zuletzt im Jahr 1971 ein traditioneller Zensus durchgeführt. Der Zensus 2011 war wie in den Jahren zuvor ein Registerzensus. Ein Registerzensus ist wesentlich kostengünstiger als ein traditioneller Zensus. Da die notwendigen Registerdaten bereits zur Verfügung stehen, liegen die Kosten eines Registerzensus bei nur ungefähr einem Prozent der Kosten für einen traditionell durchgeführten Zensus. Ein zweiter Vorteil des Registerzensus ist, dass keine aktive Mitarbeit der Bevölkerung erforderlich ist. Es ist daher zu erwarten, dass in Zukunft mehr europäische Länder Registerdaten für den Zensus benutzen werden. Die Niederlande werden auch zukünftig einen Registerzensus durchführen. Die Verordnung über Volks- und Wohnungszählungen für den Zensus 2011 hat auch für den 2021 durchzuführenden Zensus Gültigkeit. 24 Anwendungsreif? Nutzung und Potenzial von Internetdaten für Stadtforschung und Raumbeobachtung Tim Elrick1 , Mattias Plennert Institut für Geographie, Friedrich-Alexander-Universität Erlangen-Nürnberg, Germany, [email protected] SECTION: VDSt Im Zeitalter intensiver interaktiver Internetnutzung (web 2.0 ) und der immer leichteren Verfügbarkeit großer digitaler Datenmengen (big data) im Internet ist es an der Zeit zu evaluieren, inwiefern sich diese Daten für Planungs- und Entscheidungsprozesse in der Stadtpolitik und im Verwaltungshandeln verwenden lassen. Internetdaten, seien es Volunteered Geographic Information (VGI) oder nutzergenerierte Daten aus sozialen Netzwerken, von Weblogs oder aus Foren, könnten neue Quellen systematischer Raumbeobachtung insbesondere im städtischen Kontext darstellen, die zeitnah oder in Echtzeit erfasst und ausgewertet werden können. Der Vortrag wird auf die Möglichkeiten und Einschränkungen der Nutzung von Internetdaten an konkreten Beispielen für die Stadtforschung eingehen und einen Überblick über die vorliegenden wissenschaftlichen Erkenntnisse der städtischen Raumbeobachtung anhand dieser Daten geben. 59 15.-18. September, Hamburg Statistische Woche 2015 In einem zweiten Teil wird das Potenzial von Internetdaten am Beispiel des OpenstreetMap-Projektes (OSM), das als eines der prominentesten Beispiele von Volunteered Geographic Information gilt, exemplarisch ausgeleuchtet. OpenStreetMap, das bereits seit dem Jahr 2004 existiert, versucht, durch freiwillige Nutzerbeiträge, die gebaute Umwelt und ihre Nutzungen möglichst genau in einer Datenbank, respektive Karte, abzubilden und stellt damit eines der gut organisierten und strukturierten VGI-Projekte dar, das sich als Ausgangspunkt für Nutzungsszenarien in der Stadtforschung anbietet. Im Vortrag wird an Fallbeispielen erörtert, welches Nutzungspotenzial OpenStreetMap für die Raumbeobachtung bietet und welche Besonderheiten bei seiner Nutzung zu beachten sind. 25 Umweltqualität und Umweltgerechtigkeit - Die Kombination von Internetdaten und Statistikinformationen am Beispiel der Wissenschaftsstadt Darmstadt Günther Bachmann1 Amt für Wirtschaft und Stadtentwicklung, Darmstadt, Germany, [email protected] SECTION: VDSt Umweltbelastungen sind in Darmstadt sozial und räumlich ungleich verteilt. Am Beispiel einer hochbelasteten Straße mit einem starken Verkehrsaufkommen, insbesondere durch PKW und LKW, wird aufgezeigt, wie es in Zusammenarbeit verschiedener Ämter und Behörden, darunter der Statistikabteilung, gelingt, gesundheitsrelevante Umweltbelastungen zu vermindern. Im Zuge der Kooperation wird deutlich, dass sich häufig neben den gesundheitlichen Belastungen durch Umwelteinflüsse in den an Verkehrsadern anliegenden Wohnquartieren auch soziale Problemlagen konzentrieren. Mittlerweile sind öffentliche Nahverkehrsmittel wie Bus und Straßenbahn mit Umweltsensoren ausgestattet, die eine aktuelle Erfassung wichtiger Umweltparameter erlauben und diese im Internet visualisieren. Dies wird im Vortrag beispielhaft vorgestellt. Jedoch erst die Kombination aus Registerdaten der Statistik, sozialräumlichen Analysen und lokaler Erfassung von Lärm und Luftschadstoffen ergibt das ganze Bild. Wichtiges Ziel ist es, Mehrfachbelastungen bestimmter Quartiere und ihrer Bewohner durch Umweltprobleme und soziale Benachteiligung zu erkennen und durch geeignete Maßnahmen mehr Umweltgerechtigkeit zu erreichen. 26 Die Analyse von Kaltmieten mit Online-Daten - Am Beispiel einer Quantilregression Anne Seehase1 Amt für Statistik, Landeshauptstadt Magdeburg, Germany, [email protected] SECTION: VDSt Klassische Erhebungsformen für Mietspiegel stehen auf dem Prüfstand. In einem sehr dynamischen Wohnungsmarkt verschleiert die Fokussierung auf Bestandsmieten der letzten Jahre den Blick auf das derzeitig tatsächlich zu zahlende Mietniveau. Dies ist aber gerade für Wohnungssuchende und Neuan- 60 Statistische Woche 2015 15.-18. September, Hamburg mietungen relevant. Einen besseren Einblick in den Status Quo des Mietmarktes ermöglichen demnach Angebotsmieten. Das klassische Zeitungsinserat als Plattform für Mietangebote wird mittlerweile durch eine große Zahl an Online-Plattformen ergänzt bzw. ersetzt. Dies bietet den Vorteil, dass zeitnah ausreichend Daten zum aktuellen Mietpreismarkt erhoben werden können. Die Verknüpfung der Angebote mit zusätzlichen Online-Diensten, wie Google-Maps, ermöglicht zudem ohne großen Aufwand, die geografischen Koordinaten zu erfassen. Mit deren Hilfe können Lageeffekte direkt durch Verfahren der geografischen Gewichtung in die Analysen mit einbezogen werden, ohne zuvor explizit Wohnlagen definieren zu müssen. Die Quantilregression eignet sich für die Analyse von Angebotsmieten besonders gut. Als robustes Verfahren wird die Schätzung nicht durch Ausreißer – beispielsweise aus den hochpreisigen Segmenten verfälscht. Neben einem Blick auf die zentrale Tendenz des Mietpreises in Form des bedingten Medians können aber auch die besonders günstigen und besonders teuren Mietangebote, also die Ränder der Mietpreisverteilungen in den Blick genommen werden. In Verbindung mit der geografischen Gewichtung wird es so möglich, die räumlich bedingte Verteilung der Angebotsmieten über das gesamte Stadtgebiet zu schätzen, um somit eine Vielzahl für die Stadtplanung und Sozial-Politik relevanter Fragestellungen zu beantworten. Ziel dieses Vortrages ist es, die Methode der geografischen gewichteten Quantilregression am Beispiel der Analyse von Angebotsmieten der Stadt Magdeburg kurz dazustellen. Hierbei soll insbesondere auf die Möglichkeiten zur Nutzung von Online-Daten sowie die Vor- und Nachteile der generellen Verwendung von Angebotsmieten von Online-Portalen eingegangen werden. 27 Sozialmonitoring Integrierte Stadtteilentwicklung Hamburg: Die Diffusion eines Stadtbeobachtungssystems in lokale und fachliche Entscheidungsprozesse Andreas Kaiser1 Behörde für Stadtentwicklung und Wohnen, Amt für Wohnen, Stadterneuerung und Bodenordnung, Abteilung Integrierte Stadtteilentwicklung, Freie und Hansestadt Hamburg, Germany SECTION: VDSt Das Sozialmonitoring Integrierte Stadtteilentwicklung ist ein in Hamburg etabliertes kleinräumiges Stadtbeobachtungssystem. Die Ergebnisse werden jährlich im Internet veröffentlicht (vgl. www.hamburg. de/sozialmonitoring). Die Verwaltung ist damit in der Lage, unterstützungsbedürftige Quartiere frühzeitig zu identifizieren und die Auswahl von Fördergebieten der Städtebauförderung auf eine objektive Datenbasis zu stützen. Bei der Erarbeitung gebietsbezogener Bestandsaufnahmen, Problem- und Potenzialanalysen sowie Integrierter Entwicklungskonzepte (IEK) finden die Sozialmonitoring-Ergebnisse regelmäßig Anwendung. Auch bei Zwischenbilanzierungen zur Fortschreibung der IEKs und Bilanzierungen am Ende der städtebaulichen Förderung wird eine Bewertung der Sozialmonitoring-Ergebnisse vorgenommen. Dafür werden sowohl die Sozialmonitoring-Ergebnisse in Tabellen- und Kartenform als auch die Datengrundlagen über einen Datenpool innerhalb des Verwaltungsnetzes bereitgestellt. Die Ergebnisse des Sozialmonitorings und die über den Datenpool bereitgestellten Daten werden darüber hinaus von den unterschiedlichen Stellen in der Verwaltung als Grundlage für bezirkliche und gesamtstädtische sozialräumliche Planungen genutzt. Sie unterstützen damit die Ausrichtung von Fach- 61 15.-18. September, Hamburg Statistische Woche 2015 politiken (unter anderem Bildung, Soziales, Wohnungsbauprogramme, Flächenmanagement, Freiraumversorgung) auf ausgewählte Stadtteile und Quartiere. Das Sozialmonitoring hat in Hamburg zu verbesserten, aktuellen und in der gesamten Verwaltung einheitlichen Datengrundlagen beigetragen. Außerdem wurde eine standardisierte und damit über die gesamte Stadt vergleichbare Auswertungsmethodik eingeführt, die eine transparente und übersichtliche Darstellung komplexer Sachverhalte unterstützt. 28 Datengestütztes Bildungsmanagement in Städten – Erfahrungen und Beispiele Lutz Liffers1 , Katja Geerdes Transferagenturen für Großstädte bei der Dt. Kinder- und Jugendstiftung, Germany SECTION: VDSt Insbesondere Großstädte stehen vor umfangreichen Veränderungen gesellschaftlicher und wirtschaftlicher Art: demografischer Wandel, Zuwanderung, zunehmenden soziale Spaltung, angespannte kommunale Haushalte, Wettbewerb um Fachkräfte und Unternehmen und vieles mehr. Bildung stellt eine Schlüsselressource zur Bewältigung dieses Wandels dar. Den Kommunen kommt hierbei eine besondere Rolle zu, da sie der Ort sind, an denen Bildungsangebote gestaltet werden und wo sich Erfolge und Misserfolge von Bildung unmittelbar auswirken. Vor diesem Hintergrund hat sich in den vergangenen zwei Jahrzehnten das Selbstverständnis der Kommunen vom reinen Verwalten hin zum Gestalten, Steuern und Koordinieren des kommunalen Bildungswesens gewandelt: Kommunalverwaltungen nehmen im Rahmen einer erweiterten Schulträgerschaft Einfluss auf die inhaltliche Gestaltung des Schulwesens, betreiben qualitativen und quantitativen Ausbau der frühkindlichen Bildung, sind Träger der Jugendhilfe und erkennen zunehmend die Bedeutung kultureller Bildung. Diese Aufgaben kann eine Kommunalverwaltung nicht alleine bewältigen, dazu bedarf es einer strukturierten Vernetzung aller Bildungsakteure unter Koordinierung durch die Kommune. Das Bildungsmonitoring dient hierbei als Instrument zur Unterstützung für Entscheidungen und Schwerpunktsetzungen im kommunalen Bildungswesen. 29 Verwaltungsdaten als Basis für kommunale Wohnungsnachfrageund Wohnbauflächenprognosen Irene Iwanow1 Leibniz-Institut für ökologische Raumentwicklung, Germany, [email protected] SECTION: VDSt Die Rahmenbedingungen kommunaler Wohnungsmärkte ändern sich kontinuierlich, manchmal relativ langsam, manchmal aber auch unerwartet schnell, wie z. B. die derzeitige Zuzugswelle in die Groß- und Mittelstädte in Deutschland erkennen lässt. Obwohl Trends und Trendänderungen von Wanderungsbewegungen kaum vorhersehbar und sehr unsicher sind, benötigen Städte und Gemeinden dennoch kommunale Wohnungs- und Wohnbauflächenprognosen für einen Zeitraum von 10 bis 15 Jahren. Auch die 62 Statistische Woche 2015 15.-18. September, Hamburg positive Bewältigung des demographischen Wandels erfordert sowohl vorausschauendes Denken auf der Basis von kleinräumigen Bevölkerungs-, Haushalts- und Wohnungsprognosen als auch eine Anpassung kommunaler Planungsstrategien. Obwohl Kommunalprognosen enorm an Bedeutung gewinnen, weil wachsende und schrumpfende Kommunen immer häufiger in unmittelbarer räumlicher Nähe liegen und deshalb Prognosen auf der Ebene von Landkreisen zu grob sind, entscheiden letztlich zwei Kriterien über die Qualität der Prognosen: Sind die verwendeten Prognosemethoden für Kommunalprognosen geeignet und steht eine qualitativ ausreichende Datenbasis zur Verfügung? Ziel des Vortrages ist die Vorstellung einer Methodik zur Ableitung kommunaler Szenarien zur Wohnungsnachfrage- und Wohnbauflächenentwicklung, welche insbesondere auf Analysen von Datenbeständen der Kommunalverwaltung einschließlich der Auswertung von digitalen kommunalen Planungsunterlagen basieren. Auch die kommunalen Ergebnisse der Zensuserhebung 2011 sowie forschungsbezogene Sonderauswertungen der amtlichen Statistik können die Datengrundlage der Melderegister ergänzen. Ziel der vorgestellten Methode ist es, realitätsnahe Szenarien auf der Basis von Verwaltungsdaten vorzustellen. 30 Der Regionale Wohlfahrtsindex - eine Alternative zum Bruttoinlandsprodukt? Hans Diefenbacher1 , Dorothee Rodenhäuser Universität Heidelberg, Alfred-Weber-Institut/FEST, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Der Vortrag geht von der These aus, dass Politik, Medien und Öffentlichkeit in vielen Bereichen sich an für die jeweiligen Problemstellung nicht angemessenen Zahlen orientiert: Ob Hochschulranking oder Studienzulassungen, Prognosen über die Bevölkerungsentwicklung oder das Bruttoinlandsprodukt – von diesen Zahlen können falsche Signale ausgehen. Dies wird vor allem am Beispiel des Bruttoinlandsproduktes verdeutlicht und gezeigt, dass das BIP kein brauchbares Maß zur Beschreibung der Wohlfahrt oder der Lebensqualität in einem Lande oder einer Region wie einem Bundesland ist – selbst als Indikator der Wirtschaftstätigkeit ist es nur bedingt sinnvoll. Der Nationale beziehungsweise Regionale Wohlfahrtsindex wird am Beispiel Deutschlands und verschiedener Bundesländer vorgestellt. Im Vergleich dazu werden auch andere Ansätze wie Indikatorensysteme, etwa der Enquête-Kommission Wachstum, Wohlstand, Lebensqualität“, oder zusammengesetzte Indi” ces wie der Human Development Index diskutiert. Der Vortrag schließt mit einem Plädoyer für einen aufgeklärteren“ Umgang mit Statistik und stelle Thesen zu Möglichkeiten und Grenzen alternativer ” Wohlfahrtsindikatoren zur Diskussion. 31 Statistische Indikatoren aus den Volkswirtschaftlichen Gesamtrechnungen der Länder – 25 Jahre gesamtdeutsche Wirtschaftsbeobachtung Frank Thalheimer1 Statistisches Landesamt Baden-Württemberg, Germany, [email protected] 63 15.-18. September, Hamburg Statistische Woche 2015 SECTION: Statistical Indicators for Policy Monitoring Welchen Beitrag leisten die Länder zur konjunkturellen Entwicklung in Deutschland, wie hat sich die Arbeitsproduktivität im regionalen Vergleich entwickelt, sind die privaten Einkommen schneller oder langsamer als die Gesamtwirtschaft gestiegen und welche Region erreicht die höchste Wirtschaftskraft in Deutschland wie im europäischen Kontext? Zu all diesen Fragen liefert der der Arbeitskreis Volkswirt” schaftliche Gesamtrechnungen der Länder“ seit seiner Gründung im Jahre 1954 zentrale wirtschaftliche Indikatoren für die Länder sowie die kreisfreien Städte und Landkreise in Deutschland. Schon kurz nach der deutschen Wiedervereinigung am 3. Oktober 1990 fand bereits im Dezember 1990 in Berlin die erste gesamtdeutsche Tagung des Arbeitskreises statt, unter Beteiligung der Statistischen Ämter der 16 Länder. Somit leistet der Arbeitskreis nunmehr über insgesamt 25 Jahre eine gesamtdeutsche Wirtschaftsbeobachtung. Die Ergebnisse der regionalen Volkswirtschaftlichen Gesamtrechnungen (VGR) stellen damit das umfassendste statistische Instrumentarium der Wirtschaftsbeobachtung dar. Sie liefern für Politik, Wirtschaft, Wissenschaft und Interessensverbände unverzichtbare Informationen. Die Volkswirtschaftlichen Gesamtrechnungen basieren auf international vereinbarten Regeln und Konzepten. Diese werden in bestimmten Abständen angepasst, um neue ökonomische Sachverhalte adäquat und vergleichbar abbilden zu können. Generell werden so die Ergebnisse der VGR in etwa fünfjährigen Abständen revidiert, wie zuletzt 1999, 2005 und 2011. Die Generalrevision 2014 diente in erster Linie der Umsetzung des neuen Europäischen Systems Volkswirtschaftlicher Gesamtrechnungen (ESVG 2010), das für alle Mitgliedsstaaten der Europäischen Union die Methoden für die Berechnung der Aggregate der Volkswirtschaftlichen Gesamtrechnungen rechtsverbindlich festlegt. Das ESVG 2010 bringt eine Vielzahl von konzeptionellen Änderungen mit sich. Darunter quantitativ am bedeutendsten ist die geänderte Verbuchung von Forschungs- und Entwicklungsleistungen (FuE) als Investitionen, die zu einer BIP-Niveauerhöhung führt. Im Jahr 2010 belief sich das nominale BIP in Deutschland nach der Revision 2014 auf rund 2 576 Milliarden Euro; das waren 81 Milliarden Euro oder 3,3 Prozent mehr als nach alter Methodik. Zwischen den Ländern weisen die Niveauänderungen des BIP gegenüber den bisher veröffentlichten Werten allerdings erhebliche Unterschiede auf. 32 Monitoring der Städtebauförderung in der vertikalen Politikverflechtung Jürgen Göddecke-Stellmann1 Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR), Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Staatliche Förderprogramme bedürfen der politischen Legitimation. Deshalb ist der Nachweis der Wirksamkeit der Förderprogramme ein wesentliches Element der Städtebauförderung. Die Zwischenevaluierung des Programms Soziale Stadt (2004) war die erste Evaluierung eines Städtebauförderungsprogramms. Eine Erkenntnis dieses Prozesses war, dass es an Datengrundlagen für Wirkungsanalysen fehlt. Vorgeschlagen wurde von den damaligen Evaluatoren der Aufbau eines systematischen Monitorings zur Programmumsetzung. Die im Rahmen der Föderalismusreform von 2006 erfolgte Neuregelung des Art. 104b brachte eine Informationspflicht für die Verwendung der Finanzhilfen mit sich. Bundestag, Bundesregierung und Bundesrat sind danach auf Verlangen über die Durchführung der Maßnahmen und die erzielten Verbesserungen zu unterrichten. Vor diesem Hintergrund sind Seitens des Bun- 64 Statistische Woche 2015 15.-18. September, Hamburg des erhebliche Anstrengungen unternommen worden, die Informationsgrundlagen zur Umsetzung der Städtebauförderungsprogramme auszubauen. Gemeinsam mit den kommunalen Spitzenverbänden haben Bund und Länder als Träger der Städtebauförderung 2009/2010 ein programmübergreifendes Evaluierungskonzept für die Städtebauförderung erarbeitet. Das Evaluierungskonzept gliedert sich in fünf Module. Das Modul Grundlagen der Evaluierung“ zielt auf eine verbesserte quantitative Datenbasis für ” die Städtebauförderprogramme. Im Zentrum dieses Moduls steht daher der Ausbau des quantitativen Monitorings der Städtebauförderung im BBSR. Unterstützt von einer Expertengruppe ist ein Indikatorenkonzept zu zentralen Input-, Output- und Kontextindikatoren erarbeitet worden, das zusätzlich zu den bereits vorhandenen Förderdaten und den Begleitinformationen aus der Programmaufstellung als neues Element in das Monitoringsystem zur Städtebauförderung eingeht. Der Vortrag gibt einen Überblick zum Zustandekommen des Indikatorenkonzeptes, zeigt die Einbettung des Monitorings in die Politikberatung des BMUB auf und verdeutlicht durch exemplarische Auswertung den Erkenntnisgewinn des erweiterten Monitorings der Städtebauförderung im BBSR. 33 Die Kennzahlen nach § 48a SGB II zum Vergleich der Leistungsfähigkeit von Jobcentern Jana Wyrwoll1 , Susanne Noll Bundesagentur für Arbeit, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Mit § 48a SGB II forderte der Gesetzgeber im Sommer 2010 die Einführung eines Kennzahlenvergleichs, mit dem die Leistungsfähigkeit der Träger der Grundsicherung für Arbeitsuchende (Jobcenter) festgestellt und gefördert werden soll. Das Bundesministerium für Arbeit und Soziales (BMAS) veröffentlicht seit 2011 monatlich bundesweit einheitliche Kennzahlen und Ergänzungsgrößen, mit denen die Leistungsfähigkeit der Jobcenter in Bezug auf drei Ziele gemessen wird: (1) Verringerung der Hilfebedürftigkeit, (2) Verbesserung der Integration in Erwerbstätigkeit und (3) Vermeidung von langfristigem Leistungsbezug. Um die unterschiedlichen Rahmenbedingungen der Jobcenter zu berücksichtigen, werden diese in Vergleichstypen zusammengefasst. Die Kennzahlen und Ergänzungsgrößen beruhen auf Daten und Ergebnissen der amtlichen Statistik der Grundsicherung für Arbeitsuchende der Bundesagentur für Arbeit (BA). Die Grundsicherungsstatistik SGB II integriert Verwaltungsdaten der gemeinsamen Einrichtungen und Datenlieferungen der zugelassenen kommunalen Träger an die Statistik der BA. Datenlücken werden durch Imputationsverfahren geschlossen. In dem Vortrag beschreiben wir die Kennzahlen und Ergänzungsgrößen und deren Datengrundlage. Außerdem stellen wir die OnlineAuswerteplattform des BMAS und ein Excel-Analysewerkzeug vor, mit deren Hilfe die Kennzahlen und Ergänzungsgrößen interaktiv ausgewertet werden können. 34 Pitfalls of the Cholesky Decomposition for Forecasting Multivariate Volatility Moritz Heiden1 Universität Augsburg, Germany, [email protected] 65 15.-18. September, Hamburg Statistische Woche 2015 SECTION: Statistics in Finance This paper studies the pitfalls of applying the Cholesky decomposition for forecasting multivariate volatility. We analyze the impact of one of the main issues in empirical application of using the decomposition: The sensitivity of the forecasts to the order of the variables in the covariance matrix. We find that despite being frequently used to guarantee positive semi-definiteness and symmetry of the forecasts, the Cholesky decomposition has to be used with caution, as the ordering of the variables leads to significant differences in forecast performance. A possible solution is provided by studying an alternative, the matrix exponential transformation. We show that in combination with empirical bias correction, forecasting accuracy of both decompositions does not significantly differ. This makes the matrix exponential a valuable option, especially in larger dimensions. 35 Downside Risk Measure Performance under Changes in Volatility Johannes Rohde1 Leibniz Universität Hannover, Germany, [email protected] SECTION: Statistics in Finance The appropriate evaluation of risk measures plays an essential role for a financial institution’s capital requirement. Within this work it is derived which kind of risk measure is to be preferred over other risk measures in order to identify a structural break in volatility or distribution. The evaluation of the risk measures is performed by a loss function approach, in which losses are assigned in two different ways. The theoretical results are surveyed for realistic evaluation horizons within a simulation study, which is carried out as comparison of Value at Risk and Expected Shortfall. In addition, empirical evidence is given by an application to different stock market indices. 36 Combining VaR Forecasts using Lasso Quantile Regression Sebastian Bayer1 Universität Konstanz, Germany, [email protected] SECTION: Statistics in Finance This paper proposes the combination of Value-at-Risk forecasts using lasso quantile regression. The lasso penalty simultaneously induces variable selection and coefficient shrinkage. Therefore, it is a suitable penalization function for forecast combination as it permits the inclusion of a large number of forecasts in the combination. Lasso penalized quantile regression optimizes a relevant loss function and includes an intercept for bias correction. This is in sharp contrast to simple methods like the mean or median forecast which are often used for forecast combination in the case of many predictors. The lasso quantile regression approach is applied to each of the 30 constituents of the Dow Jones Index. It turns out that the lasso combination technique performs well in terms of backtesting and tick losses. This applies especially to the time of the global financial crisis when many of the 18 individual models fail but the lasso combination maintains a good performance. Dynamically choosing the shrinkage parameter is not required for good forecasting performance, a wide range of fixed values yield competitive forecasts. 66 Statistische Woche 2015 15.-18. September, Hamburg Competing combination techniques like the mean forecast do not dominate, i.e. there is no forecast combination puzzle in the quantile context. 37 Dynamic Optimization of Futures Portfolio Strategies under Downside Risk Control Rainer Schüssler1 Helmut-Schmidt University, Germany, [email protected] SECTION: Statistics in Finance We introduce a novel approach for interconnecting forecasting strategies, asset allocation and risk management in a multi-period setting. The method involves defining a discrete set of one-period portfolio allocation policies and choosing among them at portfolio revision dates within a stochastic dynamic programming approach so as to maximize an investor’s expected utility under downside risk control. Our model formulation can handle various types of asset return processes, allocation strategies and risk preferences. The problem formulation, which is an approximation to the global solution, surmounts the curse of dimensionality that is associated with time-varying investment opportunity sets and multiple assets. While the complexity of of the dynamic optimization problem is unaffected by the number of assets, it increases only linearly in the number of the considered asset allocation strategies. We apply our technique to dynamic investment decision problems in futures markets and demonstrate its feasibility and usefulness for asset allocation and risk management. 38 Forschungsdatenzentrum des ZEW (ZEW-FDZ) Sandra Gottschalk1 Zentrum für Europäische Wirtschaftsforschung (ZEW) GmbH, Germany, [email protected] SECTION: Business and Market Statistics Das ZEW-Forschungsdatenzentrum (ZEW-FDZ) ermöglicht externen Wissenschaftlern den Zugang zu Forschungsdaten des ZEW. Bei den im ZEW-FDZ angebotenen Forschungsdaten handelt es sich in erster Linie um Mikrodaten von ZEW Unternehmensbefragungen – Themen sind u.a. Innovationsaktivitäten, Entwicklung junger Unternehmen, Nutzung von Informations- und Kommunikationstechnologien. Ferner können die Daten von ZEW Expertenbefragungen – z.B. ZEW Finanzmarkttest – und ZEW Personenbefragungen genutzt werden. Das ZEW-FDZ wurde im November 2012 vom RatSWD akkreditiert. Externe Wissenschaftler können im Rahmen von wissenschaftlichen Projekten einen Antrag zur Nutzung von ZEW-Forschungsdaten stellen, mit denen sie in den FDZ-Räumen des ZEW arbeiten dürfen. Daneben stellt das ZEW-FDZ externen Wissenschaftlern einige ZEW Forschungsdaten in einer faktisch anonymisierten Form als Scientific-Use-Files zur Verfügung, die außerhalb des ZEW-FDZ in der eigenen Forschungseinrichtung genutzt werden können. Einzelne Datensätze des Mannheimer Innovationspanels gibt es auch als Education-Use-Files für den Einsatz in der Lehre. Die Nutzung der Daten ist im Allgemeinen kostenlos. Im Jahr 2014 nutzen 62 externe Wissenschaftler die Scientific-Use-Files des ZEW-FDZ. Zu einem oder mehreren Gastaufenthalten ans ZEW kamen 20 Forscher, die Education-Use-Files des MIP wurden von vier Nutzern in Lehrveranstaltungen eingesetzt. 67 15.-18. September, Hamburg Statistische Woche 2015 39 Herausforderungen bei der Operationalisierung des Forschungsbegriffs in der FuE-Erhebung Andreas Kladroba1 Stifterverband für die Deutsche Wissenschaft, Germany, [email protected] SECTION: Business and Market Statistics Gemäß EU-Verordnung 995/2012 sind alle EU-Mitgliedsländer verpflichtet regelmäßig Daten zu Forschung und Entwicklung (FuE) zu liefern. Methodisch stützt sich die Verordnung auf das sogenannte Frascati-Handbuch der OECD. In diesem sind als Kernindikatoren für die Quantität von FuE in Unternehmen, Hochschulen und staatlichen Forschungseinrichtungen die internen FuE-Aufwendungen sowie das FuE-Personal definiert. Diese Definition findet sowohl in der wissenschaftlichen als auch in der politischen Praxis inzwischen breite Akzeptanz. Nicht desto weniger ist die Fokussierung auf diese beiden Variablen wegen der extremen Heterogenität sowohl der wissenschaftlichen Institutionen als auch der Wissenschaftsbereiche nicht unproblematisch. Der Vortrag zeigt anhand ausgewählter Beispiele Vor- und Nachteile der im Frascati-Handbuch favorisierten Kernindikatoren auf. Darüber hinaus werden mögliche Alternativen diskutiert. Dabei wird nicht nur der Frage nach weiteren möglichen Indikatoren nachgegangen, sondern es werden auch Unterschiede aufgezeigt, die sich aus dem Ablauf des Forschungsprozesses und sogar dem Zeitpunkt, an dem gemessen wird, ergeben. Eine wichtige Ergänzung soll dabei auch das Selbstverständnis der Betroffenen darstellen. Die Diskussion zeigt allerdings relativ schnell, dass weitere Indikatoren eher als ergänzende Information zu verstehen sind als als möglicher Ersatz für FuEAufwendungen und FuE-Personal. 40 Digitale Revolution - (wie) nimmt sie die Statistik wahr? Michael Grömling1 Institut der deutschen Wirtschaft Köln, Germany, [email protected] SECTION: Business and Market Statistics Bei der Messung und Interpretation des sektoralen Strukturwandels sind insbesondere Veränderungen der Güter bedeutsam. Vor allem wenn es im Gefolge von Basistechnologien zu größeren und mit den herkömmlichen Klassifikationen nicht messbaren Veränderungen kommt. Neue Güter und der damit verbundene Strukturwandel sind somit oftmals über einen bedeutsamen Übergangszeitraum nicht sichtbar. Dieses Problem wurde bereits im Gefolge der Diskussion um die sogenannte New Economy“ diskutiert. ” Die zunehmende Produktion und Verwendung von Informations- und Kommunikationstechnologien und die damit einhergehenden Veränderung im Branchengefüge einer Volkswirtschaft warfen eine Reihe von statistischen Messproblemen auf. Jüngst hat diese Diskussion neuen Auftrieb infolge der sogenannten Digitalen Revolution“ bekommen. Moderne digitale Dienstleistungen (z.B. Musik, Spiele, Lexika, Vor” lesungen) werden oftmals kostenlos im Internet angeboten. Mit der herkömmlichen Messung in den VGR erscheinen die tatsächlich genutzten, meist kostenlosen Daten und Dienste nur unzureichend, zum Teil überhaupt nicht im gemessenen Konsum sowie entsprechend auf der Entstehungs- und Einkommensseite des BIP. Ähnliches kann auch für den datenbezogenen Leistungsaustausch zwischen Unternehmen gel- 68 Statistische Woche 2015 15.-18. September, Hamburg ten. Diese neuen Güter verzerren offensichtlich nicht nur das Niveau und die Struktur der Entstehungs-, Verwendungs- und Einkommensseite des BIP. Auch die Wachstumsraten des BIP insgesamt und seiner Teilbereich können vor allem in den Übergangsphasen solcher technologischen Basisinnovationen und der Einführung neuer Güter unzureichend ausgewiesen werden – mit z. B. entsprechenden Auswirkungen auf die Produktivitätsmessung. 41 Interaktive und plattformunabhängige Lernobjekte für die Statistikausbildung Hans-Joachim Mittag1 FernUniversität Hagen, Germany, [email protected] SECTION: Education and Training Es wird eine neue und frei zugängliche Web-App für die grundständige Statistikausbildung vorgestellt. Die App liegt in einer englischen und in einer erweiterten deutschsprachigen Fassung vor. Sie ist als virtuelle Bibliothek angelegt mit voneinander unabhängigen granularen Lernobjekten (”‘Mini-Lernwelten”’). Diese sind nicht nur auf Desktops (PC, Macs), sondern auch auf mobilen Endgeräten (Tablets, Smartphones) aller Hersteller lauffähig. Die Lernobjekte sind drei Teilbibliotheken zugeordnet. Die Elemente der ersten beiden Teilbibliotheken repräsentieren interaktive Experimente zum ansatzlosen ”‘Ausprobieren”’ von Basiskonzepten der beschreibenden Statistik sowie von Verteilungsmodellen der schließenden Statistik. Die Objekte der dritten Teilbibliothek haben den Charakter intuitiv bedienbarer Visualisierungsumgebungen zur interaktiven Exploration von Datensätzen der internationalen amtlichen Statistik. Die einzelnen Lernobjekte weisen keine Formeln und kaum Text auf und lassen sich in ganz unterschiedliche Lehr- und Lernszenarien einbetten. Sie eignen sich insbesondere für die Verwendung in einführenden Statistikvorlesungen, als integrale Bestandteile von Online-Lehrangeboten oder als Ergänzung von Lehrbüchern im Selbststudium. Mit Verwendung der Web-App werden die in der Methodenausbildung zur Verfügung stehenden didaktischen Möglichkeiten erweitert. Naheliegend ist die Verknüpfung der Lernobjekte mit der Printfassung von Lehrbüchern über QR-Codes. Lernobjekte zur benutzergesteuerten visuellen Exploration der Eigenschaften von Verteilungsmodellen können z. B. nach Einscannen der QR-Codes auf einem Tablet oder Smartphone direkt aufgerufen werden. So werden statische Darstellungen von Verteilungsfunktionen oder Tabellen mit Werten von Verteilungsfunktionen oder Quantilen, die man in jedem einführenden Lehrbuch der Statistik findet, anschaulich und ”‘erfahrbar”’. Eine ähnliche Aussage gilt für die Lernobjekte der Web-App zur interaktiven Visualisierung von Datensätzen der amtlichen Statistik. Hier beinhaltet die benutzergesteuerte Exploration die Option der Auswahl alternativer grafischer Instrumente (Zeitreihen, Balkendiagramme, Boxplots) und der Auswahl von Teildatensätzen. 42 Der indikatorengestützte Demografiemonitor als statistisch-empirische Basis für das Handlungskonzept Demografie der 69 15.-18. September, Hamburg Statistische Woche 2015 Staatsregierung und kommunale/regionale Demografiestrategien im Freistaat Sachsen (Arbeitstitel) Hans-Dieter (1) Kretschmann, Heike (2) Zettwitz Statistisches Landesamt des Freistaates Sachsen, Germany, [email protected] SECTION: Open Section Vortrag und Poster zum Schwerpunktthema: Statistische Indikatoren für das politische Monitoring: Der indikatorengestützte Demografiemonitor als statistisch-empirische Basis für das Handlungskonzept Demografie der Staatsregierung und kommunale/regionale Demografiestrategien im Freistaat Sachsen (Arbeitstitel) Der Freistaat Sachsen ist in Deutschland ein Vorreiter bei der politischen Gestaltung des demografischen Wandels. Auf der Grundlage der prognostizierten Bevölkerungsentwicklung wurde frühzeitig das Thema für die Zukunftsfähigkeit des Landes, seiner Städte und Gemeinden identifiziert. Zu einer breiten Wissens- und Sensibilisierungsbasis trugen u. a. Demografiekongresse, eine Expertenkommission und die Enquetekommission Demografischer Wandel“ des Sächsischen Landtags sowie die ressortübergreifende ” Zusammenarbeit bei. Die Grundlage für die Gestaltung des demografischen Wandels durch die Staatsregierung bildet ein landeseigenes Handlungskonzept, das in dem Vortrag näher dargestellt werden soll. Mit der Förderrichtlinie Demografie, die bereits 2007 in Kraft trat, können zielgerichtet regionale Strategien erarbeitet und Maßnahmen umgesetzt werden. Vor einer Erstellung von Strategien und Konzepten ist jedoch die spezifische demografische Ausgangssituation der jeweiligen Gemeinde oder des regionalen Netzwerkes zu betrachten. Die sächsischen Regionen und Gemeinden sind zeitlich und räumlich in äußerst unterschiedlichem Ausmaß von dieser Entwicklung betroffen. Die Bereitstellung von bevölkerungsrelevanten statistischen Indikatoren und ihre verständliche Visualisierung sind daher im Hinblick auf die demografische Entwicklung von großer Bedeutung. Der vom Statistischen Landesamt Sachsen bereit gestellte Demografiemonitor erlaubt die kostenfreie Aufbereitung von bevölkerungsrelevantem statistischen Material für unterschiedliche Nutzergruppen wie z. B. Verantwortliche in der staatlichen und kommunalen Verwaltung, in Unternehmen und Betrieben, in Forschung und Wissenschaft, aber auch für ehrenamtlich Tätige in Vereinen und Verbänden. Er erfreut sich wachsender Beliebtheit bei den Nutzern und wird auch intensiv für die Aufbereitung von Demografieberichten als empirische Ausgangsbasis von Demografiestrategien genutzt. Der Demografiemonitor * ermöglicht die visuelle kleinräumige Bereitstellung von Daten zum Themengebiet Bevölkerung in Karten, Tabellen und Diagrammen, * befriedigt einen individuellen Informationsbedarf (z. B. Betrachtung unterschiedlicher Altersgruppen oder Auswahl verschiedener Regionen), * bietet eine verlässliche Datenbasis, z. B. für vergleichende Betrachtungen. 43 Creative Economy Schweiz - Eine neue Sicht auf die Kreativwirtschaft Roman Page1 Statistisches Amt des Kantons Zürich, Switzerland, [email protected] SECTION: Open Section Um die dauernden Veränderungen in der Kreativwirtschaft abbilden zu können, sind branchenbasierte 70 Statistische Woche 2015 15.-18. September, Hamburg Zugänge und die damit verbundene Frage, was zur Kreativwirtschaft gehört und was nicht, zu statisch. Aus diesem Grund präsentieren die Zürcher Hochschule der Künste und weitere Partner zusammen mit dem Statistischen Amt des Kantons Zürich erstmals für die Schweiz eine neue Sichtweise: die Creative ” Economy“. Basierend auf den Empfehlungen von Eurostat, wurden für die statistischen Auswertungen der Kreativwirtschaft in der Schweiz erstmals Branchen- und Berufsstatistiken gekreuzt. Im Zentrum dieses Zugangs stand also die Frage: In welchem Verhältnis stehen kreative Berufe zu kreativen Branchen? Normalerweise dominierende Inside-/Outside-Betrachtungen über die Abgrenzung der Kultur- und Kreativwirtschaft als Branchenkomplex werden hier also bewusst ausgeklammert. Stattdessen wird hiermit die Vermutung formuliert, dass es kaum mehr ausreichen dürfte, die Kreativwirtschaft als isolierten Branchenkomplex zu betrachten, sondern dass die vorgängig formulierten Trends der Globalisierung, Digitalisierung und Partikularisierung erweiterte Betrachtungsweisen erfordern und neue Fragestellungen ins Licht rücken. Datenquelle ist die Schweizerische Arbeitskräfteerhebung (SAKE) und die Strukturerhebung (SE) des Bundesamtes für Statistik (BFS). Referenzen: Zürcher Hochschule der Künste (2010), Dritter Kreativwirtschaftsbericht Zürich http://creativeeconomies.com/ 44 Nutzen der Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder für die Wissenschaft – Entwicklung von Nachfrage und Angebot Kerstin Schmidtke1 , Heike Habla Forschungsdatenzentren der Statistischen Ämter der Länder, Germany, [email protected] SECTION: Open Section Die Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder (FDZ) leisten seit ihrer Gründung in den Jahren 2001 und 2002 einen wichtigen Beitrag zur informationellen Infrastruktur für die Wirtschafts- und Sozialwissenschaften. Als Schnittstelle zwischen Datenproduktion und Wissenschaft ermöglichen die FDZ einen einfachen und transparenten Zugang zu Mikrodaten der amtlichen Statistik. Über die unterschiedlichen Zugangswege – Scientific Use Files, Kontrollierte Datenfernverarbeitung, Gastwissenschaftsarbeitsplätze – werden sowohl die Prinzipien der Geheimhaltung innerhalb der gesetzlichen Rahmenbedingungen eingehalten als auch die Anforderungen der Wissenschaft nach Daten mit hohem Analysepotential erfüllt. Auf diese Weise kann nahezu das gesamte Spektrum amtlicher Daten für wissenschaftliche Forschung bzw. die wissenschaftliche Politikberatung genutzt werden. Seit Beginn der FDZ wurden weit über 2000 wissenschaftliche Projekte aus den Sozial- und Wirtschaftswissenschaften auf Basis amtlicher Mikrodaten durchgeführt. Die Nachfrage nach den Daten hat sich dabei permanent weiterentwickelt. Während in der Anfangsphase der FDZ hauptsächlich Querschnittsdaten nachgefragt wurden, sind heute auch zunehmend Längsschnittdaten oder Verknüpfungen mit anderen Datensätzen gefragt. In dem Beitrag werden die Entwicklungen der Nachfrage vonseiten der Wissenschaft und die Weiterentwicklungen im Datenangebot in den letzten Jahren dargestellt. Darüber hinaus wird über aktuelle Projekte in den FDZ berichtet. Dazu gehört (1) die Öffnung der FDZ für die 71 15.-18. September, Hamburg Statistische Woche 2015 ausländische Wissenschaft seit Februar 2014, (2) die geplante Bereitstellung der Daten des Zensus 2011 sowie (3) die Möglichkeit, zukünftig auch georeferenzierte Daten über die FDZ nutzen zu können. 45 Die Herausbildung von statistischen Indikatoren zur Wohlstandsmessung und zur Initiative ”GDP and Beyond”Entwicklungen auf nationaler und internationaler Ebene. Susana Garcia Diez1 Statistisches Bundesamt, Germany, [email protected] SECTION: Open Section Initiativen zur umfassenderen Messung von Wohlfahrt, Lebensqualität und sozialem Fortschritt sind inzwischen in einer großen Zahl von Ländern sowie von mehreren internationalen Organisationen auf den Weg gebracht worden. Sie reichen von allumfassenden, in einer Zahl ausgedrückten Gesamtindikatoren bis zu breit gefächerten Indikatorensätzen, die unterschiedliche Dimensionen von Wohlstand und Lebensqualität abbilden. Trotz unterschiedlicher Ausgestaltung und Reichweite sind diese Vorschläge in einem Punkt einig: Die im BIP erfasste Güterversorgung liefert zwar einen wesentlichen Beitrag zum materiellen Wohlstand, aber eine Betrachtung der materiellen Lage allein reicht nicht aus, um Wohlfahrt und Lebensqualität umfassend zu erfassen. Anderseits stellt sich bei all diesen Initiativen eine gemeinsame Herausforderung: das neu kreierte Informationssystem in die politische Diskussion und Arbeit einzubinden. In diesem Beitrag werden ausgewählte Initiativen präsentiert, welche genau dieses Ziel verfolgen. Dabei wird der Fokus auf den Entstehungsprozess der Initiativen gelegt und folgende Fragen werden diskutiert: Wie wurde in den jeweiligen ausgewählten Initiativen der Prozess der Herausbildung statistischer Indikatoren konzipiert? Was für eine Rolle wurde bei der Diskussion um Auswahl und Bedeutung der Themen sowie bei der Festlegung der statistischen Indikatoren der Öffentlichkeit, den politischen Repräsentanten und den statistischen Ämtern zugeteilt? Neben der in Deutschland seit ein paar Jahren stattfindenden Diskussionen über eine umfassendere Wohlfahrtsmessung, werden hier ebenfalls Vorschläge aus dem Ausland präsentiert und diskutiert. 46 Bildungsindikatoren in der öffentlichen Debatte: Zwischen sinnvoller und unsachgemäßer Nutzung? Martin Baethge1 , Prof. Dr. Andrä Wolter; Christian Müller; Eckart Hohmann Soziologisches Forschungsinstituts Göttingen, Germany SECTION: Statistische Indikatoren für das politische Monitoring In den letzten Jahren hat die Anzahl der Berichterstattungen über Bildung merklich zugenommen. Damit einher ging auch die Entwicklung einer Vielzahl von Indikatoren, die das Bildungsangebot und seine Nutzung sowie die Ergebnisse beschreiben. Die Berichte haben abhängig von Auftraggeber und Verfasser unterschiedliche Zielsetzungen und Adressaten. Der Bericht Bildung in Deutschland“, be” auftragt von dem Bundeministerium für Bildung und Forschung und der Kultusministerkonferenz und 72 Statistische Woche 2015 15.-18. September, Hamburg verfasst von einer unabhängigen Gruppe von Wissenschaftlerinnen und Wissenschaftlern, hat die Zielsetzung, Steuerungswissen zur Verfügung zu stellen und Handlungsfelder aufzuzeigen. Er richtet sich an alle Akteure des Bildungswesens in Politik, Verwaltung und Praxis genauso wie an die an bildungspolitischen Fragen interessierte Öffentlichkeit. Die Veröffentlichung Wissenschaft weltoffen“, erstellt ” vom Deutschen Akademischen Auskunftsdienst in Zusammenarbeit mit dem Deutschen Zentrum für Hochschul- und Wissenschaftsforschung hat sich als die zentrale Informationsquelle für Indikatoren zur internationalen Mobilität von Studierenden und Akademikern etabliert. Ob und wie die bereitgestellten Indikatoren in der öffentlichen Debatte genutzt werden, darüber diskutieren zwei langjährige Mitglieder der Autorengruppe des Berichts Bildung in Deutschland“ ” 47 Dynamic Analysis of Multivariate Time Series Using Conditional Wavelet Graphs Matthias Eckardt1 , Maria Grith Humboldt-Universität zu Berlin, Germany, [email protected] SECTION: Statistics in Finance We propose a new method for the analysis of multivariate time series that relies on the covariance function decomposition in the time-frequency domain. The method is well equipped for addressing potential long-range dependence, nonstationarity and seasonality present in real-world time series data. We introduce a graphical model termed conditional wavelet graph which combines both the advantages of the graphical models and the partialized wavelet properties to solve the problem locally dynamic structural dependence of vector-valued time series data. Our model is based on a undirected multigraph encoding the dependence structure at different scales. Thus, while vertices represent component processes the edge set is transferred into localized subset representing local dependence. Furthermore, we derive a directed version that characterizes localized Granger causal relation. We call it directed wavelet graph. While the first is related to local conditional orthogonality the latter expresses dependencies in terms of local Granger causality. In addition, we derive global dynamic measures of network dependence. The contribution of our paper consists in defining partial (directed) wavelet coherence and developing a test that permits to assess whether the conditional spectrum between two series at a given time point is statistically significantly different from zero or not. We apply the methodology to study the partial wavelet coherence of realized volatility for six large stock market Indexes. The analysis reveals features of the systemic risk in a dynamic perspective with potential applicability to investors’ portfolio choice. 48 Estimating ARMA-GARCH Processes in High Dimensions Florian Ziel1 Europa-Universität Viadrina, Germany, [email protected] SECTION: Statistics in Finance In this talk we present an iteratively reweighted lasso algorithm for the estimation of time series models under conditional heteroscedasticity in a high-dimensional setting. We analyse the asymptotic behaviour 73 15.-18. September, Hamburg Statistische Woche 2015 of the resulting estimator that turns out to be significantly better than its homoscedastic counterpart. Moreover, we discuss a special case of this algorithm that is suitable to estimate multivariate ARARCH and ARMA-GARCH models in a very fast fashion. Several model extensions like periodic ARMAGARCH or threshold ARMA-GARCH are discussed as well. We show simulation results that suggest that we benefit more from considering heteroscedasticity in high-dimensional settings than in standard situations. Finally, we present applications to electricity market data. 49 Estimation of Expected Utility Portfolios for Large Dimensional Data Nestor Parolya1 , Taras Bodnar, Yarema Okhrin Leibniz Universität Hannover, Germany, [email protected] SECTION: Statistics in Finance The mean-variance (MV) portfolio in the high-dimensional case is estimated using the results from the random matrix theory. We construct a shrinkage-type estimator which is distribution-free and it is optimal in the sense of maximizing the expected utility, i.e., mean-variance objective function with probability one. Its asymptotic properties are investigated when the number of assets p depends of the sample size n such that their ratio p/n approaches a positive constant c as n tends to infinity. The results are obtained under weak assumptions imposed on the distribution of the asset returns, namely the existence of the fourth moments is only required. Thereafter we provide the numerical and empirical studies where the small- and large-sample behavior of the derived estimator are investigated. The resulting estimator shows significant improvements and it is robust to the deviations from normality. 50 Exact and Asymptotic Tests on a Factor Model in Low and Large Dimensions with Applications Taras Bodnar1 , Markus Reiß Stockholm University, Sweden, [email protected] SECTION: Statistics in Finance In the paper, we suggest three tests on the validity of a factor model which can be applied for both small dimensional and large dimensional data. Both the exact and asymptotic distributions of the resulting test statistics are derived under classical and high-dimensional asymptotic regimes. It is shown that the critical values of the proposed tests can be calibrated empirically by generating a sample from the inverse Wishart distribution with identity parameter matrix. The powers of the suggested tests are investigated by means of simulations. The results of the simulation study are consistent with the theoretical findings and provide general recommendations about the application of each of the three tests. Finally, the theoretical results are applied to two real data sets, which consist of returns on stocks from the DAX index and on stocks from the S&P 500 index. Our empirical results do not support the hypothesis that all linear dependencies between the returns can be entirely captured by the factors considered in the paper. 74 Statistische Woche 2015 15.-18. September, Hamburg 51 Confidence regions for images observed under the Radon transform Katharina Proksch1 , Hajo Holzmann, Nicolai Bissantz Universität Siegen, Germany, [email protected] SECTION: Statistical Inverse Problems Recovering a function f from its integrals over hyperplanes (or line integrals in the two-dimensional case), that is, recovering f from the Radon transform Rf of f , is a basic problem with important applications in medical imaging such as computerized tomography (CT). In the presence of stochastic noise in the observed function Rf , we shall construct asymptotic uniform confidence regions for the function f of interest, which allows to draw conclusions regarding global features of the function f . Specifically, in a white noise model as well as a fixed-design regression model, we prove a BickelRosenblatt-type theorem for the maximal deviation of a kernel-type estimator from its mean, as well as give uniform estimates for the bias for f in a Sobolev smoothness class. The finite sample properties of the proposed methods are investigated by means of a in a small simulation study. 52 Adaptive confidence bands for Markov chains and diffusions: Estimating the invariant measure and the drift Jakob Söhl, Mathias Trabs1 Humboldt-Universität zu Berlin, Germany, [email protected] SECTION: Statistical Inverse Problems As a starting point we prove a functional central limit theorem for estimators of the invariant measure of a geometrically ergodic Harris-recurrent Markov chain in a multi-scale space. This allows to construct confidence bands for the invariant density with optimal (up to undersmoothing) diameter in supremum norm by using wavelet projection estimators. In addition our setting applies to the drift estimation of diffusions observed discretely with fixed observation distance. We prove a functional central limit theorem for estimators of the drift function and finally construct adaptive confidence bands for the drift by using a data-driven estimator. The proofs rely on a non-standard concentration inequality which is due to the Markovian structure of the observations. 53 Detecting time-dependency and separation of objects in live cell-imaging Nicolai Bissantz1 Ruhr-Universität Bochum, Germany, [email protected] SECTION: Statistical Inverse Problems Detecting time-dependency and separation of objects in live cell-imaging 75 15.-18. September, Hamburg Statistische Woche 2015 The question whether structural changes in time-resolved images are of statistical significance, and therefore of scientific interest, or merely emerge from random noise is of great relevance in many practical applications such as live cell fluorescence microscopy, where intracellular diffusion processes are investigated. In this paper we study the statistical recovery of such time-resolved images from fluorescence microscopy of living cells, based on which we introduce a method that allows us to both monitor and visualize statistically significant structural changes between individual frames over time. The method can be adopted for use in other imaging systems and is applicable to both images and image changes. It yields a criterion to assess time-resolved small scale structural changes e.g. in the nanometer range. Moreover, we extend the analysis of the live-cell imaging data to the classification of objects as being separate or not. The proposed method is based on data reconstruction with a regularization technique as well as new theoretical results on uniform confidence bands for the function of interest in a two-dimensional heteroscedastic nonparametric convolution-type inverse regression model. In particular, a new uniform limit theorem for the case of Poisson-distributed observations is presented and a strong approximation result for a two-dimensional array of non-identically distributed Poisson-residuals by an array of independent and identically distributed Gaussian random variables is derived. Additionally, a statistical test for the detection of modes is used for an additional analysis of objects on being separate. Moreover, a data-driven selection method for the regularization parameter based on statistical multiscale methods is discussed. The method can be used for a automatic data-driven data analysis. The theoretical results are demonstrated in a simulation study and used to analyse data of fluorescently labelled intracellular transport compartments in living cells. 54 Density estimation from grouped data with skew densities and heterogeneous group sizes Johanna Kappus1 Universität Rostock, Germany, [email protected] SECTION: Statistical Inverse Problems We aim at estimating the density fX of X. However, this quantity is only accessible through the aggregated data Yj = mj X Xj,k , j = 1, · · · , n, k=1 where the (Xj,k ) are independent copies of X. We focus on the situation where the density fX of X is non-symmetric and the group size mj may vary with j. A new estimation procedure is introduced, rates of convergence under usual smoothness conditions are derived and their optimality is discussed. Moreover, we investigate the adaptive choice of the smoothing parameter. In addition, we discuss the connection to the nonparametric estimation of the characteristics of a Lévy process when heterogeneous observations are available. 76 Statistische Woche 2015 15.-18. September, Hamburg 55 Wildlife sampling methods and models David Borchers1 University of St Andrews, United Kingdom, [email protected] SECTION: Young-Academics Mini-Symposium All wildlife surveys involve incomplete spatial sampling of populations that are inhomogeneously distributed in space. And all but the simplest are characterized by the fact that the probability of including population members in the sample varies spatially in an unknown way that is beyond the control of the surveyor. This is what makes wildlife survey design and analysis challenging. The design and analysis methods can usefully be classified according to the ways that they estimate inclusion probabilities, and much of wildlife survey development has focused on refining how this is done. Until very recently, much less effort has been devoted to modelling the invariably inhomogeneous and often clustered distribution of population members in space, but this is now changing. In this talk I will give an overview of the main wildlife survey methods, including removal methods, distance sampling methods, capture-recapture methods and occupancy estimation methods. I will concentrate on methods for closed populations (those that do not change over the course of they survey), illustrating their common features as well as their distinguishing features, and will try to show how and where statistical methods used in the analysis of wildlife surveys relate to statistical methods used in other fields. 56 Why Spatial models are useful in ecology (Understanding the mechanics of dots) Charlotte Moragh Jones-Todd1 St Andrews University, United Kingdom, [email protected] SECTION: Young-Academics Mini-Symposium Understanding and inferring the underlying spatial mechanics of patterns formed by the locations of objects in space is not a recent concept, however the computational cost of fitting complex point process models has historically limited their application to comparably simple models. Through the use of Integrated Nested Laplace Approximation (INLA) coupled with the stochastic partial differential equation (SPDE) approach complex spatio-temporal point process models can be fitted, specifically Log Gaussian-Cox Process‘, a common model used to infer the latent processes inherent in aggregated point patterns. Point process methodology has applications in many fields; ecology, pathology, criminology and pedology etc. Inferring the inherent underlying spatial/spatio-temporal structures in an attempt to explain naturally occurring processes is highly relevant in many contexts as this facilitates the understanding of the many “real world” phenomena that vary both in space and time. Through the application of such point process methodology to both ecological and criminal data the spatial/spatio-temporal dependence is estimated and the latent “driver” is inferred. 77 15.-18. September, Hamburg Statistische Woche 2015 57 Recent developments for modelling butterfly abundance Emily Beth Dennis1 University of Kent, United Kingdom, [email protected] SECTION: Young-Academics Mini-Symposium Butterfly populations are undergoing various changes which require investigation. They respond sensitively and rapidly to changes in habitat and climate, hence their population status is a valuable indicator for changes in biodiversity. Butterflies are the most comprehensively monitored invertebrate taxa. Count data from the UK Butterfly Monitoring Scheme is used to derive abundance indices, which form one of the UK Government’s 18 biodiversity indicators. Devising suitable statistical methods for modelling butterfly abundance presents challenges. Butterflies have multi-stage life cycles and hence count data fluctuate within each year in response to their emergence as adults. Many species are also multivoltine, with up to two or three broods of adults emerging each year. Furthermore, fitting models to data for many species from extensive, long-term monitoring schemes can be challenging and computer intensive. We present recent models that describe seasonal variation in count data of the adult stage for particular years, and demonstrate their application to a sample of species. Generalised additive models are currently used for annual reporting, but a recently proposed generalised abundance index is very efficient in comparison, due to the use of concentrated likelihood techniques. New parametric descriptions of seasonal variation also produce estimates of parameters relating to emergence and survival. Novel dynamic models explicitly describe dependence between broods and years to produce indices and estimated productivities separately for each brood. By accommodating features such as weather and covariate dependence, the new methods can reveal new insights relevant for both monitoring and conservation, whilst producing more efficient abundance indices. We discuss the relative benefits of the different modelling approaches, as well as possible future developments. This talk describes work undertaken jointly with members of the University of Kent, Butterfly Conservation and the Centre for Ecology and Hydrology. 58 Monitoring Time Dependent Processes Yarema Okhrin, Wolfgang Schmid1 Europa-Universität, Germany, [email protected] SECTION: Change Points In many applications an analyst is interested to detect a change in the course of a time dependent process. Change points provide an important information about the underlying process as they show that something important has happened. Of course it is desirable to detect such changes as soon as possible after its occurrence. Such questions arise in many fields of applications like, e.g., engineering, public health, finance, environmental sciences (see, e.g., Montgomery (2009), Lawson and Kleinman (2005), Frisén (2008)). 78 Statistische Woche 2015 15.-18. September, Hamburg In this talk control charts for monitoring time series are considered. In that case it turns out to be very difficult to give an explicit formula for the performance criteria of a chart like, e.g., the average run length or the average delay. In most cases these quantities are estimated within simulation studies. In order to give a mathematical characterization of these schemes stochastic inequalities can be used. These results provide an important insight into the behavior of these schemes since statements about the probability of a false signal can be obtained (e.g., Schmid and Schöne (1997), Schöne at al. (1999), Okhrin and Schmid (2003, 2015)). Here several stochastic inequalities for EWMA charts are presented for various types of time series. The main focus lies on control charts for long-memory processes. 59 Inference and Change-Point Asymptotics for Covariance Matrices of High-Dimensional Time Series Ansgar Steland1 , Rainer von Sachs RWTH Aachen, Germany, [email protected] SECTION: Change Points We study the problem of monitoring high-dimensional vector time series where the dimension may grow faster than the sample size. That problem arises in various fields and applications ranging from financial portfolio optimization to the analysis of high-dimensional covariance matrices to infer dependencies between variables and sparse projections onto lower-dimensional spaces aiming at reducing the dimensionality. A further interesting application is shrinkage of the sample covariance matrix. When analyzing high-dimensional vector time series, estimation of the associated covariance matrix is a challenging and involved problem. This particularly applies when it comes to statistical inference and change-point analysis. Our approach is based on new large sample approximations related to the sample covariance matrix, in terms of strong approximations by a Brownian motions. The results hold true for a time series model under assumptions which allow for weak dependence as well as a strong dependence. Those general results allow us to establish a change-point detection procedure for a high-dimensional vector time series. Here we consider a change-in-variance change-point problem and study the asymptotics of the proposed detector to test for the presence of a change. Within the investigated model framework, it turns out that it is possible to monitor high-dimensional time series under surprisingly weak assumptions. 60 Sparse partial robust M-estimation for regression and classification Peter Filzmoser1 , Sven Serneels, Irene Hoffmann, Christophe Croux Vienna University of Technology, Austria, [email protected] SECTION: Computational Statistics and Data Analysis Partial Robust M-regression (PRM) (Serneels et al., 2005) is a Partial Least Squares (PLS) alike robust regression method which reduces dimensionality of the data by projection to latent structures. PRM is modified along the lines of Chun and Keles (2010) in order to yield sparse coefficient estimates. The 79 15.-18. September, Hamburg Statistische Woche 2015 resulting method is called Sparse PRM (SPRM), and it inherits the advantages of PLS: It is applicable to high-dimensional data with multicollinearities, and the results can be visualized in biplots. Further, SPRM performs intrinsic variable selection and obtains a sparse version of the latent variables, which can increase model precision when uninformative variables are present, and this facilitates the interpretation of the results. Research has shown that PLS regression methods can also be adapted for discriminant analysis (Barker & Rayens, 2003). Thus, we introduce a classification method for binary response based on SPRM as robust alternative to PLS discriminant analysis. PLS related algorithms for the estimation of latent variable models in classification problems are discussed and different approaches for outlier detection are presented. The method is evaluated based on simulation studies, where the effect of outliers in the predictor space, wrong class labels in the response, uninformative variables and unequal group size is investigated. Thereunto, the number of components and the sparsity parameter are tuned via k-fold cross validation. In the simulation study and for real data examples from mass spectrometry the performance of the methods is illustrated and compared to non-robust counterparts. References: Barker, M. & Rayens, W. (2003). Partial least squares for discrimination. Journal of Chemometrics, 17, 166-173. Chun, H. & Keles, S. (2010). Sparse partial least squares regression for simultaneous dimension reduction and variable selection. Journal of the Royal Statistical Society, Series B, 72, 325. Serneels, S. & Croux, C. & Filzmoser, P. & Van Espen, P.J. (2005). Partial robust M-regression. Chemometrics and Intelligent Laboratory Systems, 79, 55-64. 61 Random Forests for Functional Covariates Annette Möller1 , Gerhard Tutz, Jan Gertheiss University of Göttingen, Germany, [email protected] SECTION: Computational Statistics and Data Analysis Analysis of functional data with methods tailored to the specific characteristics of the curves is becoming more and more important in many statistical applications. However, applied researchers often rely on more intuitive procedures to deal with functional data. A popular approach is to discretize a signal x(t), t ∈ J ⊂ R, by partitioning its domain into several intervals and employ the mean values computed across each interval as covariates in a regression or classification model. Based on this idea we propose a special form of random forests to analyze functional data. The covariates used for the single trees are the mean values over intervals partitioning the functional curves, where the intervals are generated at random using exponentially distributed waiting times. The rate parameter λ of the exponential distribution determines whether the functions’ domain tends to be split into just a few (small λ) or many (large λ) intervals. Further, we derive a functional variable importance, accounting for the fact that the set of used covariates (the randomly generated intervals) differs for each tree in the forest. The tree specific “interval importance” measure is assigned to each point t contained in the respective interval and averaged over all trees. The obtained smooth importance plot yields information about the relevance of the different parts of the predictor curves. We investigate the predictive performance of the functional random forests in comparison to classical parametric and nonparametric functional models, and to a non-functional random forest using the single measurements x(tj ) at measurement points tj as predictors. Our case study considers data from Raman spectroscopy on boar meat samples, where the objective is to predict the concentration of the hormones 80 Statistische Woche 2015 15.-18. September, Hamburg skatole and androstenone in the meat samples, and to classify the respective samples according to joint properties in skatole and androstenone concentration. 62 Control charts based on robust two-sample tests Sermad Abbas1 , Roland Fried Technische Universität Dortmund, Germany, [email protected] SECTION: Computational Statistics and Data Analysis The detection of sudden jumps in time series is an important task in biosignal analysis. For example, in online monitoring in intensive care, jumps indicate clinically relevant events. In the plasmon assisted microscopy of nanosize objects for retrospective virus detection, a jump points at a virus. Common control charts with fixed control limits are sometimes inappropriate because they depend on reference values or historical data which might not exist. Moreover, the process can be nonstationary. Additionally, in case of outliers, robust methods are needed, because relevant changes could be masked. We use a moving-window approach to detect jumps. It is divided into two subwindows. Their location difference is estimated and standardized using a suitable scale estimator to construct test statistics. Robust estimators are applied to deal with possible outliers. We compare tests based on the sample median, the one-sample Hodges-Lehmann estimator and the two-sample Hodges-Lehmann estimator with some non-robust competitors regarding their average run length (ARL). The ARL is the expected number of observations between two successive alarms. It should be large if there is no jump in the time series and small if there is one. We compare the methods in simulation studies under the standard normal as well as the heavy-tailed t5 - and t2 - and the skewed χ23 -distributions. A randomisation procedure to calculate the distribution of the test statistics under the null hypothesis can lead to an approximately distribution-free ARL. 63 Politische Rahmenbedingungen und Zielsetzungen der Regierungsstrategie Gut leben in Deutschland – was uns wichtig ist“. ” 1 Oliver Schmolke , Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Was ist den Menschen in Deutschland wirklich wichtig? Welche Ansprüche stellen sie an ein gutes“ ” Leben? Unter diesen Leitfragen hat sich die Bundesregierung in ihrer Kabinettsklausur Anfang 2014 auf die Regierungsstrategie Gut leben in Deutschland – was uns wichtig ist“ verständigt. Die Ergebnisse ” von Bürgerdialogen sowie des begleitenden Online-Dialogs werden nach wissenschaftlichen Kriterien ausgewertet und in messbare Indikatoren übersetzt. Damit will die Bundesregierung eine belastbare Grundlage für ein regelmäßiges Berichtswesen über Lebensqualität schaffen und die Diskussion über ein umfassendes Wohlstandsmodell als Zielgröße der Wirtschafts- und Gesellschaftspolitik in Deutschland voranbringen. 81 15.-18. September, Hamburg Statistische Woche 2015 64 Optimal Shrinkage Estimator for High Dimensional Mean Vector Ostap Okhrin1 , Taras Bodnar, Nestor Parolya TU Dresden, Germany, [email protected] SECTION: Statistics in Finance In this paper we derive the optimal linear shrinkage estimator for the large dimensional mean vector using the random matrix theory. We concentrate us on the case when both the dimension p and the sample size n tend to infinity such that their ratio tends to a constant c ∈ (0, +∞). Using weak assumptions on the underlying distribution we find the asymptotic equivalents of the optimal shrinkage intensities and estimate them consistently. The obtained non-parametric estimator is of simple structure and is proven to minimize asymptotically the quadratic loss with probability 1 in the case c ∈ (0, 1). In the case c ∈ (1, +∞) we improve the derived estimator by setting the feasible estimator for the precision covariance matrix. At the end, an exhaustive simulation study is provided, where the proposed estimator is compared with known benchmarks from the literature. 65 Pricing under Estimation Risk Richard Neuberg1 , Lauren Hannah Columbia University, United States of America, [email protected] SECTION: Statistics in Finance Financial product prices often depend on unknown parameters. Their estimation introduces the risk that a better informed counterparty may strategically pick mispriced products. We discuss how overall estimation risk can be minimized by selecting a probability model of appropriate complexity. We show that product-specific estimation risk can be measured only if the probability model predictions have little bias. We illustrate how a premium for product-specific estimation risk may be determined when one counterparty is better informed than the other, but a market collapse is to be avoided. We use a simple example from pricing regime credit scoring, where a loan applicant and a single bank engage in a zero-sum game. We find that in large samples kernelized logistic regression is at least as accurate as commonly used default probability estimators such as logistic regression, and that it has little bias. This allows estimating loan-specific estimation risk, and asymptotic results make its computation fast. These methods are empirically examined on a panel data set from a German credit bureau, where we also study dynamic dependencies such as prior rating migrations and defaults. 66 Testing for Neglected Strong Dependence in Explosive Models Robinson Kruse, Christoph Wegener1 Center for Risk and Insurance, Germany, [email protected] SECTION: Statistics in Finance 82 Statistische Woche 2015 15.-18. September, Hamburg The test by Philips, Wu, and Yu (2011) is a recent and widely applied procedure to test against explosive behavior in time series econometrics. There is a fast-growing empirical literature, which applies this method to detect bubbles in real estate, commodity and stock prices. Furthermore, there are some improvements of this test like, for example, a generalized version to deal with multiple bubbles by Philips, Shi, and Yu (2012). However, there is a gap in the literature concerning strong dependent innovation processes in this framework. We consider the test by Philips, Wu, and Yu (2011) under strong dependencies and find severe size distortions if the residuals of the autoregressive model exhibit long-range dependencies. The unit root hypothesis is rejected far too often even for a mild form of strong dependence. We use the limit theory for mildly explosive models by Magdalinos (2012) to uncouple the consistent estimation of the autoregression coefficient and the degree of persistence. Thus, we are able to test the unit root hypothesis against an explosive alternative in the presence of long-range dependencies. Moreover, we investigate the size properties of the test by Demetrescu, Kuzin, and Hassler (2008) for short-range dependencies in this setting. We are particularly interested in small sample properties of all methods in this context, because explosive behavior seems to be a temporarily phenomenon. We show by simulation that the Maximum Likelihood Estimator is downward biased in small samples. Thus, we examine simple correction methods to deal with this issue. Furthermore, we also consider several methods to correct the widely known bias of the estimator for the autoregression coefficient in the unit root region. Finally, we construct a recursive right-tailed unit root test allowing for strong dependencies in the residuals and we apply this procedure to yield spreads of European government bonds. References Demetrescu, Matei, Vladimir Kuzin, and Uwe Hassler, 2008. Long Memory Testing in the Time Domain. Econometric Theory 24, 176-215. Magdalinos, Tassos, 2012. Mildly Explosive Autoregression under Weak and Strong Dependence. Journal of Econometrics 169, 179-187. Phillips, Peter CB, Shu-Ping Shi, and Jun Yu, 2012. Testing for Multiple Bubbles. Cowles Foundation Discussion Paper No. 1843. Phillips, Peter CB, Yangru Wu, and Jun Yu, 2011. Eplosive Behavior in the 1990s NASDAQ: When did Exuberance escalate Asset Values? International Economic Review 52, 201-226. 67 Estimating and Using continuous time stochastic volatility driven by partially nested Lévy Archimedean copula Models with VIX Data for Option Valuation Mohsen Rezapour1 Shahid Bahonar University of Kerman, Iran, Islamic Republic of, [email protected] SECTION: Statistics in Finance It is now widely accepted that the volatility of financial assets changes stochastically over time, with fairly calm phases being followed by more turbulent periods of uncertain length. Although many modelbased and model-free volatility measures have been proposed in the academic literature, the Chicago Board Options Exchange (CBOE) volatility index, widely known by its ticker symbol VIX, has effectively become the standard measure of volatility risk for investors in the US stock market. 83 15.-18. September, Hamburg Statistische Woche 2015 Continuous-time models play a crucial role in modern finance. They provide the basis of option pricing, asset allocation, risk return tradeoff and term structure theory. However, the resulting models can be cumbersome to estimate with time-series data, due to the need to filter the unobserved stochastic volatility and jump intensity. Importantly, in most continuous time series models, no (semi-closed) solutions are available for option valuation, and especially with non-affine models, option prices can be computed only through Monte Carlo simulation or by using approximations. Alternative approaches that are used in literature are parameter estimation and valuating index options using information on the VIX index. These methods improve the option pricing performance of continuous time series models and also reduce the computational burden. An aim of this research is considering the continuous time processes driven by partially nested Lévy Archimedean copula and the parameter estimation of some continuous times random process via VIX index. 68 Measuring whale behavioural responses to anthropogenic disturbance using data from animal-borne tags Stacy Lynn DeRuiter1 Calvin College, United States of America, [email protected] SECTION: Young-Academics Mini-Symposium Animal-borne tags have revolutionized the study of animal behaviour, especially for species like whales and dolphins, whose underwater activities were essentially unobservable previously. High-resolution multi-sensor tags used to study animal behaviour typically include accelerometers to measure body posture and sudden movements or changes in speed, magnetometers to measure direction of travel, and pressure sensors to measure dive depth in aquatic or marine animals. A subset of tags include sensors for speed, turning rate (gyroscopes), or sound, increasing the array of inferences that can be drawn about the context and energetic cost of specific behaviours. Statistical analysis of data from animal-borne tags presents particular challenges, and is an active research area. Tag data generally include multiple dependent time-series, sampled at varying rates and with varying precision. High-resolution tags typically record data multiple times per second for hours or days, but are deployed on only a few individuals, resulting in many repeated observations on a few animals. Often, an analysis goal is to provide a quantitative summary of animal behaviour states, and to assess how these may change in the context of anthropogenic disturbance. Using data on behaviour changes by tagged whales in response to naval sonar sounds, I will discuss application of dimensionality reduction techniques, change-point detection, and state-switching models to animal-borne tag data. 69 A statistical introduction to animal movement modelling Théo Michelot1 , Roland Langrock, Paul Blackwell INSA de Rouen, France, [email protected] SECTION: Young-Academics Mini-Symposium The analysis of animal movement data can reveal various drivers and consequences of animal behaviour, 84 Statistische Woche 2015 15.-18. September, Hamburg e.g. how animals respond to environmental conditions, or how population dynamics may be affected by individual movement decisions. In particular, this contributes to the effort of understanding the future consequences of climate change and habitat loss on species abundance and distribution. Due to substantial technological improvements accomplished in recent years, it is nowadays feasible to gather fine-scale tracking data for a large number of individuals from some species of interest, which has created various exciting research opportunities for ecologists. Associated with this development comes a huge demand for sophisticated statistical modelling tools which capture the complex patterns typically found in animal movement paths, yet can deal with the increasing amount of data. This talk will give an overview of what currently are some of the most popular statistical models for animal movement data. Both discrete-time (hidden Markov and related models) and continuous-time (stochastic differential equations) stochastic processes will be discussed and showcased using real animal movement data. 70 Monte Carlo estimation of stage durations from cohort data Jonas Knape1 , Perry de Valpine Swedish University of Agricultural Sciences, Sweden, [email protected] SECTION: Young-Academics Mini-Symposium ı̈¿Insects and other arthropods develop through a series of distinct life stages, typically from eggs to larvae through some number of instars into adults. Estimating the amount of time individuals spend within each of these stages as well as the rate of mortality is important for biological understanding and in applications such as pest management. Many arthropod species are small and following individual organisms through their life cycle can be difficult or virtually impossible. Instead, data are collected by following a cohort of individuals and sampling the number or proportion of individuals within each of the stages at multiple time points. We discuss computational methods, utilizing adaptive MCMC algorithms and simple approximations of the likelihoods, for fitting models to cohort data. 71 Capture-recapture models in ecology: A trio of multistate developments Rachel Sara McCrea1 University of Kent, United Kingdom, [email protected] SECTION: Young-Academics Mini-Symposium The content of this presentation is collaborative work with Ruth King, Hannah Worthington and Ming Zhou. Capture-recapture data arise from capture attempts of individually identifiable animals. Basic statistical models proposed in the 1960s allowed the estimation of demographic parameters, such as survival and population size from such data, whilst accounting for imperfect detection. Multistate model extensions, in which transition probabilities of moving between sites and states are estimated, have increased in popularity in recent times and within this talk I will present material on three current areas of research. The trinomial method was proposed as a way of modelling individual time-varying covariates in a capture-recapture study. Here I examine the application of a multistate version of the trinomial 85 15.-18. September, Hamburg Statistische Woche 2015 method to a large population of guppies. Models which condition on first capture do not describe the arrival process of animals into a study area. Stopover models parametrise the unknown arrival time of individuals and allow other parameters to depend on the unknown time since arrival. Here I describe an extension to this model, the multistate integrated stopover model, which can incorporate multiple seasons of data, and allow individuals to move between states within a season. The new model will be fitted to data on great crested newts. Removal experiments involve successively sampling a closed area for particular animal species and each time removing those individuals found. Simple removal models dating back to the 1950s result in geometric declines of expected numbers of individuals in the area as time progresses and the removals take place. However, when removals are conducted on cryptic species, such as reptiles and amphibians, the animals removed on one sampling occasion may be replaced by others which might have previously remained undetected below ground or in other unsampled refugia. In these cases more complex models are needed to account for the apparent appearance of new animals in the study area. Equally, apparent ’depletions’ can be confounded by animals moving underground in response to seasonal changes in weather conditions (e.g. animals going into aestivation or hibernation). I will describe new removal models which incorporate a hidden state which accounts for individuals being available or unavailable for detection. The method will be applied to data on common lizards. 72 MULTIPLE CUSP ESTIMATION IN REGRESSION MODELS Maik Döring1 Universität Hohenheim, Germany, [email protected] SECTION: Change Points We consider the problem of estimating the locations of cusps in a regression model. That means, we focus on regression functions, which are continuous, but not differentiable at a known number of locations. We investigate the consistency with increasing sample size of the least squares estimates of the locations of the cusps. It turns out that the rates of convergence depend on the order of smoothness at the locations of the cusps and that our estimator converges to a maximizer of a Gaussian process. For a small degree of smoothness the least squares estimator for the location of the cusps shows a nonregular asymptotic. That means, we have not the asymptotic normality property, but a representation of the limit distribution as maximizer of a fractional Brownian motion with drift. 73 Surveillance of non-stationary processes Taras Lazariv1 , Wolfgang Schmid European University Viadrina, Germany, [email protected] SECTION: Change Points In SPC literature it is often assumed that the underlying process is stationary. However, this assumption is very restrictive and does not hold in many applications. Therefore, the control charts for non-stationary processes should be introduced. We use the state-space models to model the non-stationary processes. In the talk new control charts for the mean of the state-space models are presented, which are derived using 86 Statistische Woche 2015 15.-18. September, Hamburg the likelihood ratio, the sequential probability ratio test and the Shiryaev-Roberts approach (Lazariv et al. (2013)). For prediction the underlying process the Kalman filter is used (Brockwell and Davis, 1991). Within a simulation study all proposed schemes are compared with each other. The behaviour of the charts is analysed for a stationary (autoregressive process of order 2) and for a non-stationary (random walk with autoregressive noise of order 2) process. As the measures of performance the average run length (ARL), the average delay (AD) and the probability of successful detection (PSD) are used. 74 Smoothing Categorical Regressors Jeffrey S. Racine1 McMaster University, Canada, [email protected] SECTION: Smoothing Categorial Regressors In this talk I will present an overview of recent developments for the smoothing of categorical predictors. 75 ANOVA for Factors With Ordered Levels Jan Gertheiss1 , Elizabeth Sweeney Georg-August-Universität Göttingen, Germany, [email protected] SECTION: Smoothing Categorial Regressors In its simplest case, ANOVA can be seen as a generalization of the t-test for comparing the means of a continuous variable in more than two groups defined by the levels of a discrete covariate, a socalled factor. Testing is then typically done by using the standard F-test. Here, we consider the special but frequent case of factor levels that are ordered. We propose an alternative test using mixed models methodology with an implicit smoothing penalty. The new test often outperforms the standard F-test when factor levels are ordered. We illustrate the proposed testing procedure in simulation studies and use it for testing differentially expressed genes in dose-response studies and with ordinal phenotypes. 76 Global, cluster, and individual effects by smoothing categorical predictors Harry Haupt, Joachim Schnurbus1 Universität Passau, Germany, [email protected] SECTION: Smoothing Categorial Regressors We propose a nonparametric approach for estimation and inference to account for sources of heterogeneity and nonlinearity in growth regressions. Simultaneous smoothing of continuous and discrete regressors allows to estimate (and test for) time-varying global vs. cluster-level convergence effects. The 87 15.-18. September, Hamburg Statistische Woche 2015 resulting flexible modeling framework allows both linear or nonlinear convergence effects and hence to analyze potential differences of within-cluster individual convergence paths. 77 Finanzpolitische Kennziffern als Instrumente der Politikgestaltung und -vermittlung Bernd Hanke1 Bundesministerium der Finanzen, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Finanzpolitische Kennziffern als Instrumente der Politikgestaltung und -vermittlung Maastricht” Kriterien“ und Schuldenbremse“ prägen die deutsche Finanzpolitik. Sie bilden als Ziele oder Verfahren ” die Grundlagen haushaltspolitischer Entscheidungen, europäische Haushaltsüberwachung sowie nationale Haushaltsplanung und -umsetzung werden über sie gesteuert. Dabei ist wichtig, dass – bei aller Komplexität der konkreten Berechnung – mit diesen Kennziffern auch eine unmittelbar verständliche Botschaft transportiert werden kann. Ihre konsequente Umsetzung gilt als Ausweis erfolgreicher Finanzpolitik. Obwohl den Bedürfnissen des Politikbetriebes scheinbar widersprechend, erfordern sie eine strikte Regelbindung. In Deutschland offenkundig in der Bevölkerung und in der Fachöffentlichkeit populär, könnte diese mittel- bis langfristige Orientierung angesichts aktueller Probleme aber eher Grund für eine international zunehmende Entfremdung sein. Deutschland als stärkster Volkswirtschaft Europas wird zunehmend von internationalen Organisationen (OECD, IWF, KOM) nicht nur eine finanzpolitische, sondern auch eine kurzfristige makroökonomische Stabilisierungsrolle zugedacht. Die aus deutscher Sicht vorteilhaften Konzepte hat man versucht, national für föderale Fragen nutzbar zu machen. Entsprechend den europäischen Verfahren im Rahmen des Stabilitäts- und Wachstumspaktes wurde als Frühwarnsystem ein Berichtswesen auf Basis haushaltspolitischer Indikatoren für Bund und Länder entwickelt, mit dessen Hilfe drohende Haushaltsnotlagen identifiziert werden sollen. Im Rahmen der europäischen Haushaltsüberwachung sind die Regeln immer weiter verfeinert worden. Zu den bekannten Kennziffern des staatlichen Finanzierungssaldos und des Schuldenstandes sind weitere Differenzierungen erfolgt (struktureller Saldo, sog. 1/20stel-Regel für die Rückführung der Schuldenquoten, Ausgabenregel), die eindeutig scheinbare Genauigkeit vor Vermittelbarkeit stellen. 78 Administrative Verwendung statistischer Indikatoren-Entwicklungen und Auswirkungen am Beispiel der EU-Stabilitätspaktdaten Albert Braakmann1 Statistisches Bundesamt, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Spätestens im Vorfeld der Entscheidung über die Teilnahme an der Gemeinschaftswährung Euro rückten statistische Daten in den Mittelpunkt des öffentlichen Interesses. Mit der anschließenden Einführung des EU-Stabilitätspaktes und des Verfahrens bei einem übermäßigen Defizit ab 1999 werden Defizit und Schuldenstand des Staates zu den zentralen Indikatoren für das Monitoring bzw. die Überwachung der 88 Statistische Woche 2015 15.-18. September, Hamburg nationalen Haushalte. Je nach Entwicklung kann die EU-Kommission bei den betroffenen Mitgliedstaaten z.B. Auflagen machen, Verwarnungen aussprechen oder gar Geldbußen in Milliardenhöhe verhängen. Auf der anderen Seite bieten Regelungslücken oder Interpretationsspielräume für die Mitgliedstaaten die Möglichkeit, mit Hilfe innovativer finanzpolitischer Maßnahmen, die Grenzwerte der StabilitätspaktIndikatoren einzuhalten. Die EU-Kommission hat die Aufgabe die Haushaltslage der Mitgliedstaaten zu überwachen und zwar auf der Grundlage von vergleichbaren Daten. Verwendet werden die Angaben zum Defizit und Schuldenstand des Staates entsprechend den Konzepten des Europäischen Systems Volkswirtschaftlicher Gesamtrechnungen (ESVG). In diesem Beitrag wird untersucht wie sich die qualitativen Anforderungen von europäischer Seite an die Stabilitätspaktindikatoren entwickeln und verändern sowie welche Auswirkungen eine solche administrative Verwendung für die Statistik hat. 79 How should we measure residential property prices to inform policy makers? Jens Mehrhoff1 Deutsche Bundesbank, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring The various motivations for the analysis of house prices, from the monetary policy assessment of price signals to the use for financial stability purposes, or as a soundness indicator, call for alternative measures to be applied. However, these indicators can give different results, which could undermine their credibility for many users. Yet, there should be no unique indicator. The high dimensionality of a complex and diffuse phenomenon such as ”the residential property market” cannot adequately be reproduced by a composite indicator. Quite the contrary, the joint distribution of price, financial and real economic indicators seems to be at the centre of the current discussion. There is no simple answer to a complicated question; it might, thus, be better to look at a dashboard of indicators rather than to dissolve existing conflicts between base variables. Last but not least, statistics has a consulting function for policy makers - this makes it even more important to produce unbiased, easily interpretable and manageable measures. In order to determine whether threats to the economy or financial stability emanate from the housing market, the Bundesbank based its analyses on a broad set of indicators. A dashboard comprising the three dimensions price, financial and real economic indicators as well as spatial differences will be discussed. The year 2010 saw a trend reversal in the German housing market, which was reflected in a sharp rise in prices. This situation needs to be addressed in light of the ongoing low-interest-rate environment. However, studies of averages throughout Germany have limited value, as moderate rates of increase for the whole of Germany could obscure a heterogeneous regional distribution. With regard to the future stability of the residential property market as a whole, it is therefore of key importance to investigate the spatial transmission channels of price impulses in greater depth. 80 Synthesizing Cash for Clunkers: Stabilizing the Car Market, Hurting the Environment Stefan Klößner1 , Gregor Pfeifer 89 15.-18. September, Hamburg Statistische Woche 2015 Universität des Saarlandes, Germany, [email protected] SECTION: Statistics in Finance We examine the impact of European car scrappage programs on new vehicle registrations and respective CO2 emissions. To construct proper counterfactuals, we develop MSCM-T, the multivariate synthetic control method using time series of economic predictors. Applying MSCM-T to a rich data set covering two outcomes of interest, ten economic predictors, and 23 countries, we first analyze Germany which implemented the largest program. We find that the German subsidy had an immensely positive effect of 1.3 million program-induced new car registrations. Disentangling this effect reveals that almost one million purchases were not pulled forward from future periods, worth more than three times the program’s e5 billion budget. However, stabilizing the car market came at the cost of 2.4 million tons of additional CO2 emissions. For other European countries with comparable car retirement schemes, we show further positive results regarding vehicle registrations. Finally, we demonstrate that all non-scrapping countries could have considerably backed their vehicle markets by adopting scrappage subsidies. 81 Wavelet decomposition and applied portfolio management Theo Berger1 University of Bremen, Germany, [email protected] SECTION: Statistics in Finance We decompose financial return series into its time and frequency domain to separate short-term noise from long-term trends. First, we investigate dependence between US stocks at different time scales before and after the outbreak of financial crisis. Second, we set up a novel analysis and introduce the application of decomposed return series to a portfolio management setup and model portfolios that minimize the volatility of each particular time scale. As a result, portfolio compositions that minimize short-run volatility of the first scales represent a promising choice, since they slightly outperform portfolio compositions that minimize the variance of the unfiltered return series. 82 The Bundesbank’s Research Data and Service Center (RDSC): Gateway to Treasures of Micro-Data on the German Financial System Rafael Beier1 , Stefan Bender Deutsche Bundesbank, Germany, [email protected] SECTION: Statistics in Finance The Deutsche Bundesbank collects monetary, financial and external sector statistical data, comprehensive sets of indicators and seasonally adjusted business statistics. The Bundesbank’s micro data cover the fields of * Banks * Securities * Enterprises * Household finance 90 Statistische Woche 2015 15.-18. September, Hamburg The Bundesbank provides access to its microdata for research purposes. Due to legal requirements and in order to meet data protection requirements, individual data can be made available only under certain restrictions. Therefore, the Bundesbank has established its Research Data and Service Centre (RDSC) in order to provide researchers access to the Bundesbank’s microdata in the context of independent scientific research projects. The RDSC assumes several functions and provides the following services to external researchers: * The RDSC is responsible for the methodological improvement, physical provision and comprehensive documentation of high-quality microdata sets. * The RDSC offers consultancy and support services to prospective and existing data users inside and outside of the Bundesbank. The RDSC advises researchers on data selection, data access, data contents and analytical options. * The RDSC satisfies data protection requirements because it reviews incoming requests for access to microdata according to legal requirements. The Centre grants access to most of the data during research visits at the Bundesbank in Frankfurt (Germany), where visiting researchers have the opportunity to view and analyze these data during research projects in a secure environment. RDSC staff members ensure that the microdata provided are documented in detail and archived. In addition, the RDSC conducts supplementary methodological and descriptive research based on the data sets created, and it collaborates with researchers within and outside the Bundesbank. Access to data provided by the RDSC is free of charge. 83 The price for Basel III: theoretical aspects Maryna Yaroshenko1 , Taras Zabolotskyy Lviv Institute of Banking University of Banking National Bank of Ukraine, Ukraine, [email protected] SECTION: Statistics in Finance The paper investigates the problem of optimal portfolio selection based on Value-at-Risk minimization with the preselected level of expected return by using the principle of unconditional (concerning expected return) Value-at-Risk minimization. We show that the optimal portfolio with the minimum level of Valueat-Risk and preselected level of expected return is efficient by Markowitz. We derive the confidence level for the Value-at-Risk under which the expected return of optimal portfolio with the minimum level of Value-at-Risk is equal to the preselected level of expected return. Using historical monthly data of seven assets from Dow Jones Index it is analyzed the relationship between expected return level and confidence level and it is shown that the sample estimator of this confidence level is very accurate even for a small sample size (n=60). Finally, we prove that the problem of Value-at-Risk minimization with the preselected level of expected return in practice can be replaced by more universal one of unconditional (concerning expected return) Value-at-Risk minimization. 84 Mixture models with symmetric errors Cristina Butucea1 , Rodrigue Ngueyep Tzoumpe, Pierre Vandekerkhove University Paris-Est Marne-la-Vallee, France, [email protected] SECTION: Statistical Inverse Problems 91 15.-18. September, Hamburg Statistische Woche 2015 A semiparametric mixture of two populations with the same probability density and different locations can be identified and estimated under the assumption that the common probability density is symmetric. We use indentifiability results in Bordes et al. (2006) and propose a new estimation algorithm based on techniques from the theory of inverse problems. We establish asymptotic normality for the estimators of the location and mixing parameters as well as minimax convergence rates for the estimator of the probability density. We consider next a semiparametric mixture of regression models and study its identifiability. We propose an estimation procedure of the mixing proportion and of the location functions locally at a fixed point. Our estimation procedure is based on the symmetry of the errors’ distribution and does not require finite moments of the errors. We establish under mild conditions minimax rates of convergence of our estimators. We study the finite sample performance on synthetic data and on the positron emission tomography imaging data in a cancer study in Bowen et al. (2012). 85 Nonparametric GARCH models Alexander Meister1 Universität Rostock, Germany, [email protected] SECTION: Statistical Inverse Problems We consider extensions of the famous GARCH(1, 1) model where the recursive equation for the volatilities is not specified by a parametric link but by a smooth autoregression function. Our goal is to estimate this function under nonparametric constraints when the volatilities are observed with multiplicative innovation errors. We construct an estimation procedure whose risk attains the usual convergence rates for bivariate nonparametric regression estimation. Furthermore, those rates are shown to be optimal in the minimax sense. This talk is based on a joint work with Jens-Peter Kreiß (TU Braunschweig). 86 Nonparametric estimation of coefficients in stochastic differential equations by penalized maximum likelihood Fabian Dunker1 , Thorsten Hohage Ruhr-Universität Bochum, Germany, [email protected] SECTION: Statistical Inverse Problems In this talk we present nonparametric estimators for drift and volatility in stochastic differential equation if the data are described by independent, identically distributed random variables. The problem is formulated as a nonlinear ill-posed operator equation with a deterministic forward operator described by the Fokker-Planck equation. We derive convergence rates of the risk for penalized maximum likelihood estimators with convex penalty terms and for Newton-type methods. The assumptions of our general convergence results are verified for estimation of the drift coefficient. The advantages of log-likelihood compared to quadratic data fidelity terms are demonstrated in Monte-Carlo simulations. 92 Statistische Woche 2015 15.-18. September, Hamburg 87 Challenges of virtual testing in statistical quality control of railway ballast Vera Hofer1 Universität Graz, Austria, [email protected] SECTION: Statistics in Science and Technology ı̈¿Railway ballast is a natural product and as such it is subject to variation in petrographic composition and particle geometry. This causes variation in technical properties of the material such as resistance to attrition. As existing test methods are arduous and expensive, test intervals are typically fairly wide. Thus, short-term and mid-term fluctuations of ballast quality may not be detected. This results in increased costs for maintenance work such as tamping. Shorter test intervals would yield a better ballast quality and reduce ballast life-cycle costs. This can be achieved with acceptable effort only if new methods are taken into consideration. Against this background, a new statistical monitoring process for railway ballast is proposed. It R combines traditional test methods with an innovative measurement device, the Petroscope 4DÂ. Here, the geometrical parameters can be measured directly in a manner superior to that of traditional tests. Since the rock type cannot be observed directly, the petrographic composition of the material is predicted using reflectance spectra. Based on the geometric and spectrographic features of the material its mechanical properties are statistically estimated. This procedure is referred to as virtual testing. Due to the various statistical questions involved and the complex data structure virtual testing provides many challenges for statistical modelling. In particular, different types of methods ranging from supervised and semi-supervised learning to functional and compositional data analysis are used. Compositional data analysis is required since properties of the samples are aggregated due to the fact that automatically measured predictors of mechanical properties are available per particle, but the response variable (i.e. mechanical properties) is only available per sample. Replacing manual testing by virtual testing assumes that distributions on which the prediction model is based remain unchanged. However, there is no guarantee that, for example, new rock types that were not included in the training phase emerge. Samples consisting of such new classes will be classified incorrectly, which yields a wrong prediction of the mechanical properties. Thus, to guarantee a high prediction performance quality, statistical monitoring of samples from daily production requires a novelty detection step. In addition, drift detection analysis is carried out to early detect small but systematic changes of the predictors. 88 Efficient Performance Evaluation of the Cumulative Sum Chart and the Sequential Probability Ratio Test Aleksey Polunchenko1 State University of New York at Binghamton, United States of America, [email protected] SECTION: Statistics in Science and Technology Wald’s likelihood ratio identity is one of the fundamental tools in all of sequential analysis. The 93 15.-18. September, Hamburg Statistische Woche 2015 powerful change-of-measure technique essentially enabled the proof of nearly every classical result in the field: strong optimality of Wald’s SPRT, exact minimax optimality of Page’s CUSUM chart, and exact multi-cyclic optimality of the Shiryaev–Roberts procedure—to name a few. More recently, however, Polunchenko et al. (2014a) and Polunchenko et al. (2014b) put the technique to a different, more applicative use: to improve the accuracy and efficiency of the numerical method they developed to compute the performance of the Shiryaev–Roberts procedure. We extend the ideas of Polunchenko et al. (2014a) and Polunchenko et al. (2014b) and employ Wald’s likelihood ratio identity to establish an explicit connection between certain in-control characteristics of the CUSUM Run Length and their out-of-control counterparts. The connection is obtained in the form of paired integral (renewal) equations and the derivation exploits the fact that CUSUM is equivalent to repetitive application of the SPRT. The Run Length characteristics of interest include the whole distribution and its entire moment series, starting from the zero-state ARL. One particular practical benefit of the established connection is that it enables concurrent evaluation of the in- and out-of-control characteristics of the CUSUM Run Length. This is a considerable reduction of the computational burden. Moreover, due to the well-known relation between the CUSUM chart and the SPRT, the ASN and OC functions of the latter can be computed simultaneously as well. We illustrate the main ideas using CUSUM’s zero-state in- and out-of-control ARLs as an example. Extensions to double-sided charts are discussed as well. 89 On control charts and the detection of increases in the traffic intensity Manuel Cabral Morais1 , António Pacheco Instituto Superior Técnico, Portugal, [email protected] SECTION: Statistics in Science and Technology The traffic intensity is a crucial parameter of a queueing system since it is a measure of the average occupancy of a server. Expectedly, an increase in traffic intensity must be detected quickly so that a corrective action can be taken, such as allocating more servers or increasing the service rate. In this talk, we: (i) review existing procedures used to monitor the traffic intensity of G/M/1 and M/G/1 queues; (ii) focus on control charts, whose control statistics are integer-valued and/or modeled by discrete time Markov chains, to detect increases in traffic intensity; (iii) investigate the stochastic monotonicity properties of the associated probability transition matrices; (iv) explore the implications of these properties to provide insights on the performance of such control charts. 90 Statistische Indikatoren aus den Gesundheitsökonomischen Gesamtrechnungen für die Gesundheitsberichterstattung der Länder Wolf-Dietmar Speich1 Statistisches Landesamt des Freistaates Sachsen, Germany, [email protected] SECTION: Regional Statistics Die Gesundheitsökonomischen Gesamtrechnungen sind Rechenwerke, die sich mit ökonomischen 94 Statistische Woche 2015 15.-18. September, Hamburg Fragestellungen der Gesundheitswirtschaft beschäftigen. Sie halten Informationen zu Art und Umfang der erbrachten Leistungen, den dafür eingesetzten Ressourcen sowie zu Entwicklungstendenzen in der Gesundheitswirtschaft bereit. Die Arbeitsgruppe Gesundheitsökonomische Gesamtrechnungen der Länder befasst sich mit der Entwicklung der Gesundheitsökonomischen Gesamtrechnungen auf Länderebene. Handlungsfelder sind die Gesundheitsausgabenrechnung, die Gesundheitspersonalrechnung sowie der Wertschöpfungsansatz. Ziel der Arbeiten dieser Arbeitsgruppe ist die Schaffung eines länderübergreifenden Ansatzes je Handlungsfeld. Seit ihrer Gründung 2010 erfolgten grundlegende und umfassende methodische Arbeiten, um die Bereitstellung von vergleichbaren Ergebnissen auf Länderebene sicherstellen zu können. Zugleich wurden notwendige Instrumentarien zur effizienten Ergebnisermittlung entwickelt. Gegenwärtig erfolgt die Erstellung einer Gesundheitsausgabenrechnung nach Ausgabenträgern sowie einer Gesundheitspersonalrechnung nach Einrichtungsarten für die in dieser Arbeitsgruppe mitarbeitenden Länder. Ergebnisse liegen zurzeit für die Berichtsjahre 2008 bis 2012 vor. Auf der Grundlage mehrerer statistischer Indikatoren kann so erstmals ein Gesamtbild zu den Beschäftigungsmöglichkeiten in den Einrichtungsarten sowie zu den Gesundheitsausgaben nach Ausgabenträgern gegeben werden. Dabei sind sowohl die Vergleichbarkeit der Länderergebnisse untereinander als auch die Passfähigkeit zur Bundesrechnung gegeben. Die Nachhaltigkeit beider Rechnungen ist durch entsprechende Methodendokumentationen gesichert. Zugleich bedeuten die jetzt vorliegenden statistischen Indikatoren einen deutlichen Informationsgewinn für die Gesundheitsberichterstattung der Länder. Zurzeit liefert die Gesundheitspersonalrechnung drei Indikatoren für den Themenbereich Beschäftigte ” im Gesundheitswesen“ und die Gesundheitsausgabenrechnung 13 Indikatoren für den Themenbereich Ausgaben und Finanzierung“, jeweils einschließlich der entsprechenden Metadaten. Der Schwerpunkt ” der weiteren methodischen Arbeiten liegt auf der Weiterentwicklung des Wertschöpfungsansatzes zu einem länderübergreifenden Ansatz. Die Bereitstellung von Indikatoren ist für 2016 geplant. Damit wäre dann auch auf dem dritten Gebiet der Gesundheitsökonomik dem regionalen Datenbedarf von Politik, Verwaltung und Wissenschaft Rechnung getragen. 91 Mit Statistiken lügt man nicht. Der Beitrag der Umweltökonomischen Gesamtrechnungen der Länder zum politischen Monitoring. Dr. Olivia Martone IT.NRW als Statistisches Landesamt, Germany, [email protected] SECTION: Regional Statistics Mit Statistiken lügt man nicht. Der Beitrag der Umweltökonomischen Gesamtrechnungen der Länder zum politischen Monitoring. Dr. Olivia Martone Mit einer Statistik kann man alles beweisen, nur nicht die Wahrheit. Gegenüber diesem und ähnlichen Vorurteilen steht das Bundesstatistikgesetz (BstatG), das die amtliche Statistik als eine der wichtigs” ten Informationsquelle, deren Ergebnisse die notwendige informationelle Infrastruktur für jede moderne leistungsfähige Gesellschaft vermitteln“, bezeichnet. Im § 1 BStatG wird dargelegt, dass durch die Ergebnisse der Statistik gesellschaftliche, wirtschaftliche und ökologische Zusammenhänge für Bund, Länder, Gesellschaft, Wissenschaft und Forschung aufgeschlüsselt werden. 95 15.-18. September, Hamburg Statistische Woche 2015 Der Arbeitskreis Umweltökonomische Gesamtrechnungen der Länder“ (AK UGRdL) dokumentiert ” auf Länderebene seit mehr als 15 Jahren mit Daten und Indikatoren die Wechselwirkungen zwischen privater Wirtschaft, Umwelt und privaten Haushalten. Diese Informationen erscheinen in mehreren Umweltund Nachhaltigkeitsberichten der Länder und bieten der Politik eine wichtige Grundlage für umweltrelevante Diskussionen. Seit 2005 liefert der AK UGRdL viele Indikatoren für den Erfahrungsbericht zur Nachhaltigen Entwicklung der Umweltministerkonferenz. Seit 2010 trägt der Arbeitskreis auch mit der Trendanalyse zu einer neutralen und objektiven Informationspolitik bei. Die Trendanalyse wird im Geschäftsbereich Statistik von IT.NRW durchgeführt und bietet statistisch fundierte Aussagen über den zeitlichen Verlauf von Umwelt- und Nachhaltigkeitsindikatoren. 92 microm Indikatoren für das kleinräumige politische Monitoring Guido Oemmelen1 microm Micromarketing-Systeme und Consult GmbH, Germany, [email protected] SECTION: Regional Statistics Bereits seit 1993 werden bei der microm raumbezogene Indikatoren für Zielgruppenanalysen und verortungen für das Direktmarketing entwickelt und jährlich gepflegt. Bei den Daten handelt es sich zumeist um haushaltsbezogene Angaben, qualifiziert bspw. nach Kaufkraft bzw. Einkommensklassen, sozioökonomischem Status, Milieuzugehörigkeit, Ausländer- bzw. Migrantenanteil, Familienstruktur, Arbeitslosenquote, etc. Die Liste der verfügbaren Daten bietet umfangreiche thematische Möglichkeiten für das kleinräumige politische Monitoring. Unter strikter Einhaltung datenschutzrechtlicher Bestimmungen beginnt die Hierarchie der Beobachtungsebenen auf der Adress- bzw. Hausebene und führt über sogenannte Straßenabschnitte, Raster (1km und kleiner, INSPIRE konform), Baublöcke und PostleitzahlAcht Gebiete in die amtlichen Geoebenen, wie die Gemeinde- bzw. Kreisebene sowie die adressbezogenen Postleitzahlgebiete. Aufgrund ihrer feinräumigen Granulierung besteht die Möglichkeit die Daten in jede gewünschte auch eigene Raumgliederung zu aggregieren bspw. um eigene bzw. eigens erhobene Daten anzuspielen. Viele der in Deutschland durchgeführten bevölkerungsrepräsentativen Befragungen, wie die Allgemeine Bevölkerungsumfrage der Sozialwissenschaften (ALLBUS), teilweise mit Längsschnittcharakter, wie das Sozioökonomische Panel (SOEP) oder das Nationale Bildungspanel (NEPS) werden jährlich mit microm Indikatoren angereichert. Indikatoren für ein Monitoring müssen in der ihnen zugrunde liegenden Methodik sowohl zeitlich als auch räumlich stabil sein, jedoch bereits die amtlichen Gemeindegrenzen erfüllen diese Voraussetzung nicht. Im Rahmen aktueller Projekte zur Erforschung des Verlaufs residenzieller Segregation werden daher speziell Referenzen zwischen Teil- und Bezugsräumen entwickelt, bei denen die Grenzen der Bezugsräume eingefroren“ werden. Der Vortrag ” bietet neben einem Überblick über verfügbare Indikatoren auch eine Darstellung von Ergebnissen ausgewählter Projekte, die relevant sind für das politische Monitoring. 93 Bestimmungsfaktoren der Zuwanderung Lothar Eichhorn1 , Tanja Eichhorn Landesamt für Statistik Niedersachsen, Germany, [email protected] 96 Statistische Woche 2015 15.-18. September, Hamburg SECTION: Regional Statistics Die Autoren untersuchen verschiedene erklärende Faktoren für die Intensität der aktuellen Arbeitsmigration aus den 27 EU-Staaten außerhalb Deutschlands in das Land Niedersachsen. Dabei werden internationale und nationale Datenquellen kombiniert, denn eine einseitige Betrachtungsweise ausschließlich aus Sicht der Zielstaaten der Arbeitsmigration hat nur beschränkten Aussagewert. Unter anderem werden Indizes der Zuwanderungsintensität sowie der Nationalitätenrepräsentanz gebildet. Die anhand der Daten Niedersachsens entwickelte Methode kann auch für andere Länder und Regionen angewandt werden. 94 Sparse Bayesian Modelling for Categorical Predictors Daniela Pauger1 , Helga Wagner, Gertraud Malsiner-Walli Johannes Kepler Universität Linz, Austria, [email protected] SECTION: Smoothing Categorial Regressors The usual strategy to include a categorical covariate in a regression type model is to define one of the levels as the baseline and to introduce dummy variables for all other levels. As this can result in a high-dimensional vector of regression effects, methods which allow sparser representation of the effect of categorical covariates are required. In contrast to metric predictors, sparsity for a categorical predictor cannot only be achieved by restricting regression coefficients to zero but also when two or more of its levels have the same effect. Routine application of variable selection methods is therefore inappropriate as these allow only selection of single regression coefficients. We achieve a sparse representation of the effect of a nominal predictor by defining informative prior distributions. The specification of a spike and slab prior on level effect differences allows classification of these differences as (practically) zero or non-zero. Thus, we can decide whether (1) a categorical predictor has no effect at all, (2) some (all) level effects are non-zero and/or (3) some (all) categories can be fused as they have essentially the same effect on the response. Additionally we consider a modification of the standard spike-and slab prior where the spike at zero is combined with a slab distribution which is a location mixture distribution. Model-based clustering of the effects during MCMC allows to detect levels which have essentially the same effect size. We propose to first choose the number of mixture components reasonable large in order to capture differences in the effects, while the specification of a sparse prior on the mixture weights encourages empty components. We demonstrate the performance of the developed methods in simulation studies and for real data. 95 We Belong Together - Pairwise Cross-Smoothing of Categorical Predictors Phillip Heiler1 , Jana Mareckova Universität Konstanz, Germany, [email protected] SECTION: Smoothing Categorial Regressors Models that capture most of the observational heterogeneity through interactions between categorical 97 15.-18. September, Hamburg Statistische Woche 2015 predictors can become extremely large. This poses a threat to stability and feasibility of the estimates and reduces predictive accuracy. Coming from a flexible estimation approach that uses orthogonal predictors in (0-1) coding as reference, we develop a cross-smoothing method for regression models to overcome these drawbacks. The idea is to penalize the loss function by additive overlapping L2 differences between the estimation and the reference target. In general, each pairwise combination can have a parameter which determines the amount of smoothing. This effectively stabilizes the estimates by reducing the complexity of the model. The problem is equivalent to regularizing a potentially large parameter space by a finite-dimensional hyperrectangle whose boundaries are defined by the set of smoothing parameters. The main goal is to find reasonable restrictions and estimators for them. We derive the MSE-optimal smoothing parameters and provide several ad-hoc, plug-in and data-driven estimators. We show that cross-smoothing nests well-known smoothing approaches from the nonparametric and the computational statistics literature. Based on this result, we demonstrate how other conventional approaches such as smoothing kernels can only be optimal under restrictive assumptions on the first two moments of the outcome variable. Cross-smoothing requires little computational effort and yields an interpretable closed-form solution. Furthermore, it can be easily combined with continuous data and other methods for regularization. We demonstrate the qualitative behavior of the different estimation methods for the smoothing parameters and their respective predictive performance in small sample simulation. 96 Mixed copulae for Munich rent survey - Rent versus configuration of flats in Munich Christian Schellhase1 , Joachim Schnurbus, Göran Kauermann Universität Bielefeld, Germany, [email protected] SECTION: Smoothing Categorial Regressors Recently it is discussed, whether the rent increase for German major cities is merely a matter of rising demand that is exploited by flat owners. We provide a copula-based analysis of several current releases of the Munich rent survey that allows to disentangle the rent increase over time into two effects. First, the rent increase caused by an improvement of the flats and second, the increase in terms of equivalent flats simply getting more expensive. Two approaches for estimating copulas for the mixed - continuous and discrete - covariate setup are proposed. A novel approach using penalized B-splines based on a D-vine structure and a mixed kernel-approach, allowing for simultaneous smoothing of continuous and discrete covariates. 97 Structural Vector Autoregressions with Smooth Transition in Variances Aleksei Netsunajev1 , Helmut Luetkepohl Free Unniversity of Berlin, Germany, [email protected] SECTION: Empirical Economics and Applied Economics In structural vector autoregressive analysis identifying the shocks of interest via heteroskedasticity has 98 Statistische Woche 2015 15.-18. September, Hamburg become a standard tool. Unfortunately, the approaches currently used for modeling heteroskedasticity all have drawbacks. For instance, assuming known dates for variance changes is often unrealistic while more flexible models based on GARCH or Markov switching residuals are difficult to handle from a statistical and computational point of view. Therefore we propose a model based on a smooth change in variance that is flexible as well as relatively easy to estimate. The model is applied to a five-dimensional system of U.S. variables to explore the interaction between monetary policy and the stock market. It is found that previously used conventional identification schemes in this context are rejected by the data if heteroskedasticity is allowed for. Shocks identified via heteroskedasticity have a different economic interpretation than the shocks identified using conventional methods. 98 Comparing Predictive Accuracy under Long Memory Christian Leschinski, Robinson Kruse, Philipp Sibbertsen, Michael Will1 Institut für Statistik Leibniz Universität Hannover, Germany, [email protected] SECTION: Empirical Economics and Applied Economics This paper deals with the popular Diebold-Mariano (DM) test for equal predictive accuracy in situations where the forecast error loss differential series shows long memory dynamics. We first demonstrate that forecast errors can be fractionally integrated in many situations. Both, predictive regressions with fractionally integrated variables and survey forecasts arising from cross-sectional averaging may lead to fractionally integrated forecast errors. We give conditions under which the long memory carries over to the loss differential series and further characterize its dependence structure. The contribution of our article is three-fold: (1) We demonstrate that the DM test suffers from severe size distortions in finite samples, if long memory is present in the loss differential series. In addition to that, we show that the asymptotic level of the test approaches unity. (2) We construct modified DM test statistics based on two estimators for the long-run variance of long memory series - the MAC estimator and the extended fixed-bandwidth (fixed-b) approach. These modified DM statistics are consistent in the long memory case and they remain valid in the absence of long memory. (3) We conduct monte carlo simulations that include a novel comparison of the MAC estimator and the extended fixed-b approach. These simulations allow several practical recommendations regarding bandwidth and kernel choices which is especially relevant to handle the size-power tradeoff. As an empirical application we compare survey forecasts (obtained from the Survey of Professional Forecasters) for 3-month US treasury bills with a random walk benchmark forecast. Our empirical results indicate that the loss differential series exhibits significant long memory. Short memory approaches reject the null hypothesis of equal predictive accuracy in favor of a better performing random walk forecast. On the contrary, the proposed long memory robust DM statistics do not lead to a rejection, irrespective of user-specific choices. 99 Politikbegleitendes statistisches Monitoring auf inter- und supranationaler Ebene Titel der 99 15.-18. September, Hamburg Statistische Woche 2015 Susanne Schnorr-Bäcker1 Statistiches Bundesamt, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Die Messung von nachhaltiger Entwicklung und Fortschritt ist ein wichtiges Anliegen der amtlichen Statistik in unserer Zeit. Derzeit von großer Bedeutung sind die Arbeiten der Vereinten Nationen zur Neuausrichtung der nachhaltigen Entwicklungsziele, d.h. der Sustainable Development Goals (SDG) für post 2015. Diese Strategie knüpft zwar an die Millennium Development Goals an, dennoch gibt es grundlegende Neuerungen. Für die amtliche Statistik sind vor allem folgende Aspekte von besonderer Bedeutung: - Ausweitung des Geltungsbereichs auf sämtliche Mitgliedstaaten der Vereinten Nationen - Politik begleitendes statistisches Monitoring - unter Ausschöpfung auch neuer Datenquellen überwiegend durch die amtliche Statistik - Monitoring der Entwicklungen und Fortschritte nicht nur auf nationaler, sondern - soweit notwendig - auch auf subnationaler Ebene. Auch wenn die amtliche Statistik in Deutschland bereits seit Langem bei Politik begleitenden Indikatorensystemen auf nationaler, interund supranationaler Ebene beratend mitwirkt wie auch entsprechende Berichte koordiniert und teilweise veröffentlicht, stellt die Neuausrichtung der SDG eine Herausforderung für Politik und amtliche Statistik dar. Aufgrund der außerordentlichen Bedeutung der SDG auch in der nationalen und europäischen Politik werden Anpassungsmaßnahmen und Modifikationen im statistischen Monitoring auch für nationale und europäische Strategien notwendig sein. In diesem Beitrag soll aufgezeigt werden, welche Indikatorensysteme - bereits seit Längerem etablierte wie auch neue - auf inter- und supranationaler Ebene sowie für Deutschland davon betroffen sind. 100 Semi-parametric estimation in a single index model with endogenous variables Melanie Birke1 , Sebastien van Bellegem, Ingrid van Keilegom Universität Bayreuth, Germany, [email protected] SECTION: Statistical Inverse Problems In this talk we consider the problem of estimating a semiparametric single-index regression model, when it is assumed that (some of) the explanatory variables are endogenous. Endogeneity is a central issue when modeling statistical data coming from human or medical sciences, and occurs when some of the independent variables in a regression model are correlated with the error term. It can arise when relevant explanatory variables are omitted from the model, as a result of sample selection errors or when unobserved subject selection occurs in experimental studies. When endogeneity is present, ordinary regression techniques produce biased and inconsistent estimators. A possible way out is to make use of so-called ‘instrumental variables’. These are variables that are not part of the original model, they are correlated with the endogenous explanatory variables conditional on the other covariates, and they cannot be correlated with the error term in the model (i.e. the instruments do not suffer from the same problem as the original explanatory variables). In the talk we will introduce estimators for the link function as well as for the regression parameters based on techniques typical for inverse problems. It can be shown by empirical process methods that the adequa- 100 Statistische Woche 2015 15.-18. September, Hamburg tely standardized vector of regression parameters is asymptotically normal. The finite sample behavior is demonstrated in a simulation study. 101 Functional linear instrumental regression Jan JOHANNES1 Crest-Ensai and Université catholique de Louvain, France, [email protected] SECTION: Statistical Inverse Problems The estimation of a slope function β is considered in functional linear instrumental regression, where in the presence of a functional instrument W the dependence of a scalarR response Y on the variation 1 of an endogenous explanatory random function X is modelled by Y = 0 β(t)X(t)dt + σU , σ > 0, for some error term U . Taking into account that the functional regressor X and the error term U are correlated in many economical applications, the random function W and the error term U are assumed to be uncorrelated. Given an iid. n-sample of (Y, X, W ) a lower bound of the maximal mean integrated squared error is derived for any estimator of β over certain ellipsoids of slope functions. This bound is essentially determined by the mapping properties of the cross-covariance operator associated to the functional regressor X and the best linear predictor Wo of X given the instrument W . Assuming first that Wo is known in advance a least squares estimator of β is introduced based on a dimension reduction technique and additional thresholding. It is shown that this estimator can attain the lower bound up to a constant under mild additional moment conditions. The best linear predictor of X given the instrument W is generally, however, not known. Therefore, in a second step Wo is replaced by an estimator and sufficient conditions are provided to ensure the minimax-optimality of the resulting two stage least squares estimator. The results are illustrated by considering Sobolev ellipsoids and finitely or infinitely smoothing cross-covariance operators. 102 The Triangular Model with Random Coefficients Stefan Hoderlein, Hajo Holzmann1 , Alexander Meister Philipps-Universität Marburg, Germany, [email protected] SECTION: Statistical Inverse Problems To capture endogeneity, a very common structure employed is the triangular model, where an outcome is determined by an endogenous regressor which in turn is caused by an instrument in a first stage. We study the triangular model with random coefficients and exogenous regressors in both equations. We establish a profound non-identification result: the joint distribution of the random coefficients is not identified. We show moreover that this result extends to the joint distribution of the coefficients in the outcome equation, and even to the means of the individual random coefficients on all variables in this equation, except the one on the endogenous regressor. Identification continues to fail even if the instruments enter the first stage in a monotonic fashion. Based on this insight, we suggest an additional restriction that allows to point identify the distribution of random coefficients in the outcome equation. We extend this framework to cover the case where the regressors and instruments have 101 15.-18. September, Hamburg Statistische Woche 2015 limited support, and analyze semi- and nonparametric sample counterpart estimators as well as linear instrumental variables estimators for the means in finite and large samples. 103 ”Zensus2011-Straßenatlas”; untergemeindliche Ergebnisse aus der Volks-, Gebäude- und Wohnungszählung für Rheinland-Pfalz Gerd Reh1 Statistisches Landesamt Rheinland-Pfalz, Germany, [email protected] SECTION: Regional Statistics Aufgabe der Statistischen Ämter der Länder ist es, Statistiken so aufzubereiten, dass sie unter anderem von den Landes- und den Kommunalverwaltungen für eine am Sozialstaatsprinzip ausgerichtete Politik genutzt werden können. Der Zensus 2011 bietet eine fachlich breite, zum Teil tief regionalisierbare Datenbasis, die sich für planerische Anliegen und politische Entscheidungen insbesondere auch auf der kommunalen Ebene auswerten lässt. Im Dezember 2014 hat das Statistische Landesamt RheinlandPfalz sein bereits bestehendes breites Informationsangebot um eine in erster Linie für die oben genannten Fachkreise bestimmte Veröffentlichung kleinräumiger Ergebnisse ergänzt. Hierzu wurde eine Sammlung von Karten und Tabellen angefertigt, die landesweit Aufschluss über die am 9. Mai 2011 festgestellten innergemeindlichen Bevölkerungs-, Haushalts- und Immobilienstrukturen gibt: der Zensus 2011 – Stra” ßenatlas“. Die Anwendung ermöglicht flächendeckend für sämtliche rund 2.300 rheinland-pfälzischen Gemeinden die Visualisierung von insgesamt zwölf Strukturindikatoren (u. a. Anteil leer stehender Wohnungen, Anteil von Haushalten mit minderjährigen Kindern und Ausländeranteil) auf der Straßenebene. Ergänzende Tabellen enthalten sowohl die Indikatorenwerte als auch die diesen zugrunde liegenden Basiszahlen auf der Straßen-, Gemeinde- und zusätzlich auf der Kreis- sowie Landesebene. Nach bisherigen Rückmeldungen wird das Angebot von Kommunen ohne abgeschottete Statistikstelle positiv aufgenommen. Eine breitere Streuung wird seitens der Städtestatistik kritisch gesehen. Im Vortrag wird dieses zusätzliche Datenangebot aus dem Zensus 2011 als Option für die flächendeckende Aufbereitung räumlich tief gegliederter Ergebnisse vorgestellt. 104 Small Area Estimation - Stand der Anwendung und Perspektiven in der amtlichen Statistik Josef Schäfer1 Information und Technik Nordrhein-Westfalen, Germany, [email protected] SECTION: Regional Statistics Information und Technik Nordrhein-Westfalen - Geschäftsbereich Statistik Bei einem hohen Bedarf an kleinräumig gegliederten Auswertungen werden deren Möglichkeiten häufig durch eine zu geringe Primärdatenbasis eingeschränkt. Viele Ergebnisse auch größerer Erhebungen, wie z. B. dem Mikrozensus, weisen bereits auf der Ebene kleinerer Kreise und kreisfreien Städte hohe Standardfehler auf. Belastbare Ergebnisse für kreisangehörige Gemeinden oder gar darunter sind in diesem Fall unter den gegebenen Bedingungen der amtlichen Statistik in Deutschland mit klassischen Schätzverfahren nicht zu 102 Statistische Woche 2015 15.-18. September, Hamburg erhalten. Kleinräumige Auswertungen stellen eines der zentralen Anwendungsgebiete für Verfahren der Small Area Estimation dar. Diese bieten grundsätzlich die Chance, weitere Information, z. B. Ergebnisse übergeordneter oder strukturell vergleichbarer Regionaleinheiten oder weitere Datenquellen zur jeweiligen Auswahleinheit, z. B. aus Registern, zu nutzen, um die Genauigkeit zu verbessern. Neben den Chancen einer Verbesserung der Schätzgenauigkeit sind auch Risiken in Betracht zu ziehen. Aus übergeordneten Regionaleinheiten, z. B. dem Kreis, heruntergebrochene“ Ergebnisse können die Schätzergebnisse für ” eine Gemeinde verzerren. Auswahl und Bewertung der inzwischen zahlreichen Modelle sind nicht einfach und erfordern Sachverstand und Erfahrung. Wo steht die amtliche Statistik in Deutschland in Bezug auf die Anwendung von Small Area Verfahren? Welche Anwendungen wären möglich und diese sinnvoll? Wie verändern sich die Rahmenbedingungen für Regionalauswertungen und wären Small Area Verfahren eine Lösung? 105 Regionalstatistische Anforderungen an die Weiterentwicklung des Systems der Haushaltsstatistiken (WSH) Wolfgang Hüning1 Information und Technik Nordrhein-Westfalen, Germany, [email protected] SECTION: Regional Statistics In Form eines Werkstattberichts wird über das seit 2012 laufende Projekt Weiterentwicklung des ” Systems der Haushaltsstatistiken (WSH)“ der Statistischen Ämter des Bundes und der Länder referiert. Ein Schwerpunkt liegt dabei auf den regionalstatistischen Anforderungen an das System der amtlichen Haushaltsstatistiken und deren Wechselwirkungen mit anderen Anforderungen und Rahmenbedingungen. In dem Projekt WSH wurde ein Grundmodell entwickelt, mit dem verschiedene Haushaltsstatistiken in einem integrierten System vereint werden sollen. In die konkreten Überlegungen sind zunächst einbezogen: der Mikrozensus mit der Arbeitskräfteerhebung (Labour Force Survey – LFS), die europäische Erhebung über Einkommen und Lebensbedingungen (EU-SILC) sowie die Erhebung über die private Nutzung von Informations- und Kommunikationstechnologien (IKT-HH). Die mit dem integrierten Grundmodell verfolgten Ziele sind: a) die Schaffung eines kohärenten Systems der Haushaltsstatistiken, b) die Erfüllung kommender europäischen Anforderungen an die Haushaltsstatistiken, c) die Ermöglichung bedarfsgerechter Regionalanalysen sowie d) die Flexibilität auf sich verändernde Datenbedarfe zu reagieren. Diese Ziele sind nicht unabhängig voneinander, sondern stehen in Wechselbeziehungen. Daher werden sich nicht alle Ziele gleichermaßen vollumfänglich erreichen lassen. Aktuell bereitet Eurostat eine Erweiterung der Anforderungen sowohl für den Labour Force Survey als auch für die Erhebung über Einkommen und Lebensbedingungen vor. Durch eine Integration der Erhebungen zu einem kohärenten System müssen diese teilweise unterschiedlichen Anforderungen beider Erhebungen von dem Grundmodell gleichermaßen erfüllt werden. Aus regionalstatistischer Perspektive kommt dabei dem Auswertungspotential der größten Haushaltsstichprobe – dem Mikrozensus – besondere Bedeutung zu. In dem Beitrag werden die Anforderungen und der aktuelle Stand der Weiterentwicklung des Systems der Haushaltsstatistiken unter besonderer Berücksichtigung der regionalstatistischen Perspektive berichtet. 103 15.-18. September, Hamburg Statistische Woche 2015 106 Evaluierung des Zensus 2011 und Konsequenzen für den Zensus 2021 Helmut Eppmann1 Statistikamt Nord, Germany, [email protected] SECTION: Regional Statistics Mit dem registergestützten Zensus 2011 wurde in weiten Teilen statistisches Neuland betreten. Der Zensustest 2001 hat das neue Konzept nur zu einem kleineren Teil getestet. Neu beim Zensus 2011 war die Art des mixed mode Designs, die für große und kleine Gemeinden unterschiedliche Methode der Feststellung der Einwohnerzahl sowie die Komplexität des Gesamtprojektes. Die erstmalige Durchführung war daher auch ein Test. Daher war es naheliegend, dass sowohl eine externe Evaluierung als auch eine Bewertung durch die mit der Durchführung beauftragten Länder erfolgte. Die wichtigsten Ergebnisse werden vorgestellt. Neben der Untersuchung der komplexen Organisation des Projektes, der Bewertung der Datenquellen, der Methoden der Aufbereitung stehen drei Aspekte im Vordergrund. Wie sind die unterschiedlichen Methoden der Feststellung der Einwohnerzahl zu bewerten? Welcher Handlungsbedarf besteht? Wie ist die Qualität der Ergebnisse insgesamt zu bewerten? Insbesondere aus Sicht der Regionalstatistik? Welcher Handlungsbedarf besteht? Waren Wissenschaft und Städte angemessen beteiligt? Welche Konsequenzen ergeben sich für die künftige Organisation der Durchführung? Werden alle wesentlichen Erkenntnisse durch das derzeitige Rahmenwerk berücksichtigt? 107 Functional mixed models for subject-replicated data with potential breakpoints Rainer von Sachs1 , Joris Chau Université catholique de Louvain, Belgium, [email protected] SECTION: Time Series with Structural Breaks In this talk we will treat a certain functional mixed effects model in the setting of subject-replicated time series data, showing potential breakpoints in its second order (spectral) structure over time. In this problem we assume that time series subjects share a common population spectral curve (functional fixed effect), additional to some random subject-specific deviation around this curve (functional random effects), which models the variability within the population. We allow this variability to be non-diagonal, i.e. there may exist explicit correlation between the different subjects in the population. Finally, we also allow for some structural breaks of these (frequency domain) curves over time, i.e. we face a segmentation problem over time for this subject replicated spectral analysis. To estimate the common population curve, within each segment of time constancy, we project the subject-curves onto an appropriate orthonormal basis (such as a wavelet basis) and continue working in the coefficient domain instead of the functional domain. In a sampled data model, with discretely observed noisy subject-curves, the model in the coefficient domain reduces to a finite-dimensional linear mixed model, where for estimation and prediction of the fixed and random effect coefficients we can apply both traditional linear mixed model methods and, if necessary by the spatially variable nature of 104 Statistische Woche 2015 15.-18. September, Hamburg the spectral curves, work with some appropriate non-linear thresholding approach. The proposed frequency domain estimation approach will finally be embedded into some existing - and appropriately modified - time-segmentation approach to make the aforementioned analysis time-varying. Several possibilities exists, some of which will be outlined during this talk. To illustrate the proposed functional mixed model, we show some examples using simulated time series data, and an analysis of empirical subject-replicated EEG data. 108 Empirical characteristic function-based estimation for locally stationary processes Carsten Jentsch1 , Anne Leucht, Marco Meyer, Carina Beering Universität Mannheim, Germany, [email protected] SECTION: Time Series with Structural Breaks In this paper, we propose a kernel-type estimator for the local characteristic function (local CF) of locally stationary processes. Under weak moment conditions, we prove joint asymptotic normality for local empirical characteristic functions (local ECF), where we consider most generally the estimation of joint local CFs for possibly multivariate processes and lagged observations at several time points. Amongst others, this allows an extensive analysis of cross-dependence structure of multivariate processes. Precisely, for processes having a (both-sided) time-varying MA(∞) representation, we establish a central limit theorem under the assumption of finite absolute moments of the process. Additionally, we prove process convergence of the local ECF. We apply our asymptotic results to parameter estimation of time-varying α-stable distributions for α ∈ (1, 2) and to the estimation of heteroskedastic variancegamma distributions. Finally, the applicability of our local ECF is illustrated by analysing the pairwise dependence structure over time of log returns of German stock prices. 109 Modelling real exchange rates: A Markov-STAR model Philip Bertram1 , Philipp Sibbertsen, Jun Ma Leibniz Universität Hannover, Germany, [email protected] SECTION: Time Series with Structural Breaks In this paper we introduce a new nonlinear model for macroeconomic time series (Markov-STAR model). This model is able to pick up the dynamics of the Markov switching model and the smooth transition autoregressive model. We describe the estimation algorithm and give some stationarity results for this model. In an empirical application the Markov-STAR model is applied to the real exchange rates of 18 countries. Further we seek macro variables such as output gap, inflation and economic uncertainty describing the transition probabilities and thus the switching behavior of the real exchange rates. 110 Dual Binary Segmentation for the Detection of Changes in Mean and/or Variance of Piecewise-Stationary Time Series 105 15.-18. September, Hamburg Statistische Woche 2015 Anna Louise Schröder1 , Piotr Fryzlewicz London School of Economics, United Kingdom, [email protected] SECTION: Time Series with Structural Breaks We present a novel change-point detection method for piecewise-stationary time series. Our method is computationally fast and provides easily interpretable results. Under the assumption of sudden changes which define a segmentation into stationary intervals, our method estimates both number and location of multiple change points. These change points can take place in the piecewise-constant mean or in the piecewise-constant variance of the time series, or simultaneously in both quantities. Our algorithm uses a family of CUSUM-type statistics within Binary Segmentation. We show consistency within the theoretical framework of infill asymptotics for nonstationary time series. In addition, we provide rates of convergence and illustrate the performance both in a numerical simulation and applications on empirical time series. 111 Statistik für Juristinnen und Juristen – Eine Lücke im Aus- und Weiterbildungsangebot? Björn Christensen, Tanja Ihden, Martin Missong1 Universität Bremen, Germany, [email protected] SECTION: Education and Training Die Frage, ob die Rechtswissenschaft eine empirische Wende“ braucht, wird in jüngster Zeit regelmäßig ” aufgeworfen und kontrovers diskutiert. Die Debatte findet dabei - grob gesprochen - auf zwei Ebenen statt: Im wissenschaftlichen Diskurs wird die Vereinbarkeit einer (normenbezogenen) Rechtsdogmatik mit empirischer Evidenz grundsätzlich hinterfragt, die Argumentation reicht hier bis in die epistemologischen und ontologischen Grundlagen der Jurisprudenz. Zum anderen wird auf pragmatischer Ebene konstatiert, dass die Empirie bei der Tatsachenfeststellung vor Gericht einen zunehmend festen Stellenwert gewinnt und zu einer sachgerechteren Urteilsfindung beitragen kann. Die anwachsende Bedeutung quantitativer Befunde in der deutschen Rechtsprechung wird durch eine systematische Auswertung von Gerichtsurteilen aus allen Rechtsgebieten belegt. Das wirft die Frage auf, welche methodischen Kompetenzen vor Gericht zweckdienlich sind und wie Juristinnen und Juristen beim Umgang mit statistischen Befunden, die typischerweise in Form von Sachverständigengutachten an sie herangetragen werden, sinnvoll unterstützt werden können. Der Vortrag zeigt auf, warum traditionelle sozialwissenschaftliche Methodenkurse weder dazu geeignet scheinen, bei Juristinnen und Juristen ein Interesse an der Rezeption quantitativer Methoden zu entwickeln, geschweige denn disziplinär hilfreiche statistische Sachkenntnis zu erwerben. Darauf aufbauend wird in Grundzügen ein aus statistischem Blickwinkel zweckmäßiges Aus- bzw. Weiterbildungsprogramm für Juristinnen und Juristen skizziert. Abschließend wird diskutiert, inwieweit der Kern eines solchen Programms zur Vermittlung der Grundzüge unserer Disziplin auch bei einem weiter gefassten Adressatenkreis beitragen kann. 106 Statistische Woche 2015 15.-18. September, Hamburg 112 Angst vor und Einstellung zum Fach Statistik von Studienanfängern der Wirtschafts-, Politikwissenschaft und der Soziologie Manuel Förster1 , Andreas Maur Johannes Gutenberg-Universität, Germany, [email protected] SECTION: Education and Training Trotz der Bedeutsamkeit mathematischer und vor allem statistischer Kompetenzen auf dem Arbeitsmarkt für Wirtschaftswissenschaftler ist das Fach Statistik für Studierende eines der unpopulärsten und angstbesetztesten Fächer. Da wissenschaftliche Studien im internationalen Kontext zeigen, dass sich eine derartige Aversion negativ auf den akademischen Lernerfolg auswirken kann, ist es überraschend, dass statistische Lehr-Lernprozesse von Hochschulstudierenden in Deutschland bislang kaum umfassend systematisch erforscht wurden. Ziel des eingereichten Papers ist es, mit Hilfe adaptierter und weiterentwickelter englischsprachiger Fragebögen zu untersuchen, inwieweit sich Studienanfänger der Wirtschaftsund Sozialwissenschaften in ihrer Angst im Umgang mit Statistik, ihren Einstellungen zum Fach Statistik, ihrem Selbstkonzept und ihrer Motivation unterscheiden. Dazu wurden verschiedene Skalen aus englischsprachigen Fragebögen übersetzt, adaptiert und weiterentwickelt sowie in ein gemeinsames Messmodell überführt. Für eine erste Validierung der Skalen wurden ca. 350 Studierende verschiedener Disziplinen im Wintersemester 2014/15 befragt. Es zeigte sich, dass die zugrundeliegenden Dimensionen reliabel erfasst werden, wenn auch in einigen Fällen hoch miteinander korrelieren. Im Rahmen konfirmatorischer Faktorenanalysen wurde die theoretisch angenommene Faktorenstruktur bestätigt. Im Rahmen von Strukturgleichungsmodellen konnte festgestellt werden, dass Männer und Frauen sich in verschiedenen Facetten in ihrer Einschätzung deutlich voneinander unterscheiden sowie die Erfahrung im Umgang mit Statistik ein relevanter Prädiktor für die Angst und die Einstellung in Statistik ist. Zu Beginn des Sommersemesters 2015 wurde eine Befragung von ca. 800 Bachelorstudierenden der Wirtschafts-, Politikwissenschaften sowie der Soziologie vor Beginn ihres jeweils ersten Statistikkurses an der Hochschule durchgeführt. Im Vortrag wird diskutiert, ob sich die Studienanfänger der unterschiedlichen Fachdisziplinen in ihrer Einschätzung und Wahrnehmung des Fachs Statistik unterscheiden. Von hoher Relevanz ist ebenfalls, in wie weit unterschiedliche Subgruppen (Geschlecht, absolvierte Berufsausbildung, Alter, etc.) sich in ihren Einstellungen und Wahrnehmungen im Fach Statistik bereits zu Beginn des Studiums unterscheiden. Von den Befunden können direkt Implikationen auf die Lehre im Fach Statistik an der Hochschule gezogen werden. 113 Weiterbildung zum Statistischen Informationssystem (StatIS-BBB) Ramona Voshage1 , Katja Baum Amt für Statistik Berlin-Brandenburg, Germany, [email protected] SECTION: Education and Training Das Statistische Informationssystem Berlin – Brandenburg (StatIS – BBB) ist ein Datenbanksystem des Amtes für Statistik Berlin – Brandenburg (AfS), welches auf Mikrodaten basiert. Nach den ver- 107 15.-18. September, Hamburg Statistische Woche 2015 schiedenen Statistiken aufgegliedert, ermöglicht es eine fachspezifische Recherche von statistischen Daten in tiefer fachlicher und regionaler Gliederung. Der große Vorteil von StatIS gegenüber anderen Veröffentlichungsplattformen, in denen lediglich statische, unveränderliche Tabellen angeboten werden, ist die individuelle, flexible Tabellenerstellung. Das StatIS-Datenangebot richtet sich an die interessierte Öffentlichkeit im Allgemeinen sowie an Senatsverwaltungen und Ministerien im Besonderen. In dem Vortrag wird zunächst erläutert, wie die Daten in das StatIS-System eingearbeitet werden. Dabei wird unter Anderem deutlich, dass ein wichtiger Faktor für das erfolgreiche Einbringen der Informationen in die Datenbank die enge und kontinuierliche Zusammenarbeit mit den Fachbereichen des AfS ist. Ein weiteres Thema ist die Gewährleistung der Geheimhaltung trotz individueller Abfragen in StatIS. Der sichere Umgang mit dem System bei der Erstellung der spezifischen Abfragen ist ein dritter wesentlicher Aspekt des Vortrags. In diesem Jahr wurden erstmalig Schulungen in Zusammenarbeit mit den Verwaltungen Berlins zu StatIS durchgeführt. In diesen Schulungen lernten die Teilnehmer die unterschiedlichen Auswertungsmöglichkeiten kennen, die StatIS anbietet, und wurden über Besonderheiten der im System befindlichen Statistiken informiert. 114 SAS Analytics U – die neue Community für alle, die SAS lernen wollen Jürgen Kaselowsky1 SAS Institute GmbH, Germany, [email protected] SECTION: Education and Training Schon gewußt? SAS hat eine neue Plattform für alle, die ihre SAS-Kenntnisse vertiefen wollen! SAS ” Analytics U“ bietet umfangreiche Angebote für Lehrende und Lernende, ganz gleich ob Student, Professor oder Feierabendprogrammierer. Neben dem bereits bewährten SAS OnDemand for Academics“, ” das nun noch einfacher bedienbar ist, findet man hier auch die downloadbare SAS University Edition“, ” sowie kostenfreie Einsteiger-e-learnings, youtube-Anleitungen, Lehrmaterialien und Diskussionsforen – alles auf einer Webseite! Der Vortrag präsentiert alle Features der Community und zeigt Möglichkeiten, wie man den Einstieg in die SAS Software bewältigen kann – bis hin zur Zertifizierung 115 Einkommensverteilung als Indikator – Was ist dabei zu beachten? Norbert Schwarz1 Statistisches Bundesamt, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Nicht nur zur Wohlfahrtsmessung sondern auch für die Analyse wirtschaftlicher und gesellschaftlicher Entwicklungen ist die Einkommensverteilung ein zentraler Indikator. Als Messgröße wird üblicherweise das äquivalenzgewichtete Haushaltseinkommen herangezogen. Statistische Basis hierfür sind Haushaltsbefragungen. Konzeptionell gibt es eine Reihe von Aspekten, die berücksichtigt werden müssen: * Bedingt durch das Erhebungsdesign können sich die Ergebnisse unterscheiden. Die Art der Befragung, die Fragestellung sowie Auswahl und Zahl der befragten Haushalte beeinflussen die Ergebnisse. * Die 108 Statistische Woche 2015 15.-18. September, Hamburg zugrunde liegenden Einkommenskonzepte sind unterschiedlich. Während monetäre Einkommensbestandteile üblicherweise einbezogen sind, sind nicht-monetäre Bestandteile wie unterstellte Mieten für eigengenutztes Wohneigentum teilweise nicht berücksichtigt. Dies hat Konsequenzen für die Analyse und die Interpretation der Ergebnisse. * Vor allem unter Wohlfahrtsaspekten stellt sich die Frage nach dem geeigneten Einkommenskonzept. Abhängig von der Finanzierung von Gesundheits- und Bildungsleistungen sind gerade bei einem internationalen Vergleich erhebliche Verzerrungen möglich, wenn das Einkommenskonzept nur monetäre Bestandteile enthält und staatliche Sachleistungen ausschließt. In dem Vortrag werden konzeptionelle Unterschiede und ihre Folgen für die Analyse und die Bewertung aufgezeigt. Dabei steht das zugrunde liegende Einkommenskonzept im Fokus. 116 Messung von subjektivem Wohlbefinden: Empirische Ergebnisse für Deutschland Erich Oltmanns1 , Joachim Schmidt Statistisches Bundesamt, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Wodurch wird subjektives Wohlbefinden beeinflusst? Seitdem der Bericht der internationalen Kommission zur Messung von wirtschaftlicher Leistung und sozialem Fortschritt ( Stiglitz-Sen-Fitoussi-Bericht“) ” erschienen ist, haben sich eine große Zahl von Studien dieser Frage angenommen – mit teils unterschiedlichem Ergebnis. Zudem beschäftigen sich zunehmend internationale Organisationen mit diesem Thema. Als Beispiele seien nur die Post-2015-Agenda der Vereinten Nationen und die Initiative der OECD zu inklusivem Wachstum genannt. Vor dem Hintergrund der Diskussionen auf nationaler und internationaler Ebene werden Indikatoren für diejenigen Faktoren untersucht, die am häufigsten in Verbindung mit subjektivem Wohlbefinden gebracht werden. Die vorgestellte Studie für Deutschland verfolgt zwei Ziele: Zum einen werden wichtige Indikatoren in Hinblick auf ihre Relevanz für die Erklärung von subjektivem Wohlbefinden analysiert. Zum anderen wird untersucht, ob sich die Relevanz dieser Indikatoren im Zeitablauf verändert. Die empirischen Ergebnisse basieren dabei im Wesentlichen auf dem Sozioökonomischen Panel des DIW (SOEP). Der Datensatz umfasst nicht nur ca. 23.000 Personen in mehr als 12.000 Haushalten, sondern enthält darüber hinaus Informationen zu Indikatoren subjektiven Wohlbefindens (Lebensumstände, Selbsteinschätzungen etc.), die im Rahmen der vorgestellten Studie genutzt worden sind. 117 Entlastungen spürbarer machen – Wie nehmen Bürgerinnen und Bürger sowie Unternehmen den Kontakt zur Verwaltung wahr? Bernd Schmidt, Daniel Kühnhenrich1 , Christian Zipse, Carsten Hornbach Statistisches Bundesamt, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Trotz statistisch nachweisbarer Erfolge beim Umsetzen von Maßnahmen des Bürokratieabbaus wird häufig eine mangelnde Spürbarkeit der Vereinfachungsmaßnahmen kritisiert. Deshalb hat die Bundes- 109 15.-18. September, Hamburg Statistische Woche 2015 regierung das Statistische Bundesamt damit beauftragt, Zufriedenheitsbefragungen mit behördlichen Dienstleistungen auf der Grundlage eines Lebenslagen-Modells zu entwickeln und durchzuführen. Im Zentrum der Befragung stehen dabei subjektive Erfahrungen beim Kontakt von Bürgerinnen und Bürgern sowie Unternehmen mit den Behörden innerhalb bedeutender Ereignisse wie der Geburt eines Kindes oder einer Unternehmensgründung. Die vom Statistischen Bundesamt entwickelte Zufriedenheitsbefragung berücksichtigt internationale Erfahrungen im Bereich der Verwaltungsmodernisierung und Analyse der Kundenzufriedenheit. Die 20 Lebenslagen der Bürgerinnen und Bürger wurden unter Hinzuziehung empirischer Ergebnisse einer repräsentativen Online-Befragung von 1000 Personen ausgewählt, während die zehn betrachteten Situationen der Unternehmen in Arbeitskreisen mit Verbänden und Interessensvertretungen identifiziert wurden. Mittels des aus dem Marketing stammenden Customer-Journey-Ansatzes wurde die Interaktion mit den Behörden in den einzelnen Lebenslagen in sogenannten Reisen durch die Behördenlandschaft detailliert beschrieben. Rund 5600 Personen sowie rund 1400 Unternehmen gaben in einer telefonischen Befragung Auskunft zu ihrer Zufriedenheit mit behördlichen Dienstleistungen anhand von 16 Kennzahlen wie den Öffnungszeiten der Ämter und der Hilfsbereitschaft der dort Beschäftigten. Darüber hinaus wurde auch nach der Wichtigkeit dieser Aspekte gefragt. Ein auf diesen Angaben basierendes Kennzahlensystem zeigt an, wie zufrieden Bürgerinnen und Bürger sowie die Unternehmen allgemein und mit speziellen Faktoren in einzelnen Lebenslagen sind. Dazu wurden im Sinne der Importance-Performance-Analyse die Werte zur Zufriedenheit mit denen zur Wichtigkeit in Bezug gesetzt. Aus den aggregierten Ergebnissen sollen konkrete politische Maßnahmen zum spürbareren Bürokratieabbau abgeleitet werden. Der Beitrag skizziert die politischen Hintergründe, die Methodik zur Identifizierung der Lebenslagen sowie deren Beschreibung. Schließlich wird auf die Zufriedenheitsbefragungen sowie die daraus resultierenden Ergebnisse eingegangen. 118 Die Gesundheitsausgabenrechnung Moritz Mannschreck1 Statistisches Bundesamt, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Die Gesundheitsausgabenrechnung ermittelt nach dem Inländerkonzept alle von in Deutschland lebenden Personen getätigten Ausgaben für Waren und Dienstleistungen im Gesundheitswesen. Bei der Abgrenzung des Gesundheitswesens folgt die Gesundheitsausgabenrechnung dem System of Health Accounts, einem von der OECD, der WHO und Eurostat veröffentlichen Rechenstandard zur Berechnung von international vergleichbaren Gesundheitsausgaben. Nach dem System of Health Accounts ist bei der Abgrenzung des Gesundheitsbereichs maßgeblich, dass Ziel der Leistung die Verbesserung oder Erhaltung der Gesundheit von Individuen und der Bevölkerung, oder die Milderung von Krankheitsfolgen ist. Die Ausübung der Leistung setzt zudem pflegerisches oder medizinisches Wissen oder die Aufsicht von Personen mit diesem Wissen voraus. Relevant ist außerdem nur der Endverbrauch von Gütern und Dienstleistungen. Die Gesundheitsausgabenrechnung ermittelt die Gesundheitsausgaben in drei Dimensionen nach Ausgabenträgern, Leistungsarten und Einrichtungen. Ausgangspunkt der Berechnung sind die Rechnungsergebnisse der Ausgabenträger, insbesondere der gesetzlichen Krankenversicherung und der privaten Krankenversicherung. Da für den Ausgabenträger private Haushalte und private Organisationen ohne Erwerbszweck keine Rechnungsergebnisse vorliegen, dienen hier die Umsatzwerte (Pro- 110 Statistische Woche 2015 15.-18. September, Hamburg duktionswerte) der Einrichtungen des Gesundheitswesens als Datenquelle. Die über die Ausgabenträger ermittelten Werte werden anschließend auf Leistungsarten und Einrichtungen verteilt. Sofern eine Ausgabenposition nicht eindeutig auf die Leistungsarten oder Einrichtungen verteilt werden kann, werden dafür Verteilungsschlüssel genutzt. Mit der Gesundheitsausgabenrechnung liegt eine konsistente Zeitreihe von 1992 bis 2013 vor. Die Auswirkungen von politischen Entscheidungen und demografischen Entwicklungen auf die Entwicklung und Verteilung der Gesundheitsausgaben können somit nachvollzogen werden. So ist der Anteil des Ausgabenträgers private Haushalte im Zeitverlauf kontinuierlich angestiegen, während der Anteil der öffentlichen Haushalte abgenommen hat. Des Weiteren steigen die Anteile der ambulanten und stationären/teilstationären Pflegeeinrichtungen ebenfalls stetig an, rückläufig sind die Anteile der Zahnarztpraxen, Apotheken und Krankenhäuser. Abnehmend sind auch die ärztlichen Grundleistungen, die ärztlichen Sonderleistungen nehmen hingegen zu. 119 Steuerungsrelevante Kennzahlen für den Hochschulbereich Pia Brugger1 Statistisches Bundesamt, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Hauptaufgabe der Hochschulstatistik ist es, steuerungsrelevante Informationen für Hochschulplanung und Hochschulpolitik zur Verfügung zu stellen. Darüber hinaus ist die Hochschulstatistik unverzichtbar für die nationale und internationale Bildungs- und Forschungsberichterstattung, Damit die Hochschulschulstatistik vor dem Hintergrund des Wandels der Hochschullandschaft auch in Zukunft diesen Anforderungen gerecht werden kann, hat der Ausschuss für die Hochschulstatistik Empfehlungen zur Novellierung des Hochschulstatistikgesetzes vorgelegt. Im Mittelpunkt stehen die Einführung einer Studienverlaufsstatistik und einer Promovierendenstatistik sowie die Erweiterung des Merkmalskatalogs zum wissenschaftlichen Personal. Der Vortrag wird die Empfehlungen zur Neuausrichtung der Hochschulstatistik erläutern und einen Überblick über den aktuellen Stand der Umsetzung geben. 120 Monetäre Kennzahlen im Bildungsmonitoring Arne Schmidt1 , Dr. Nicole Buschle Statistisches Bundesamt, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring In Deutschland wurde in den letzten beiden Jahrzehnten ein Bildungsmonitoring aufgebaut, welches vergleichbare und objektive Informationen bereitstellt. So wurden Kennzahlen und Indikatoren entwickelt, um bspw. Informationen über die Rahmenbedingungen, den Input, die Verläufe und die Entwicklung innerhalb des Bildungswesens aufzeigen zu können. Die Kennzahlen und Indikatoren stellen den Status Quo im Bildungssystem dar und liefern eine datengestützte Grundlage, die den Handlungsbedarf im Bildungswesen aufzeigt und zielgerichtete Investitionen in Bildung initiieren können. Verwendung finden die Kennzahlen und Analysen in einem Bildungsberichtsystem, das sich aus verschiedenen regelmäßig erscheinenden Berichten und Publikationen zusammensetzt, die sowohl das gesamte Bildungswesen als 111 15.-18. September, Hamburg Statistische Woche 2015 auch einzelne Bereiche (Kindertageseinrichtungen, Schule, Hochschule usw.) fokussieren. Hier sind internationale, nationale, regionale sowie bereichsspezifische Berichte zu nennen, z.B. Education at a Glance, Bildung in Deutschland, Internationale Bildungsindikatoren im Ländervergleich, Berufsbildungsbericht, Bildungsfinanzbericht etc. Für die Leistungsfähigkeit des Bildungswesens ist insbesondere die Ausstattung mit finanziellen Ressourcen von großer Bedeutung. Einen Überblick über das Bildungsbudget und die öffentlichen Bildungsausgaben bietet auf nationaler Ebene der Bildungsfinanzbericht. Die Fachserie Monetäre hochschulstatistische Kennzahlen“ beinhaltet verschiedenste Kennzahlen für den Hochschul” bereich. Der Vortrag wird sich auf ausgewählte monetäre Kennzahlen konzentrieren und deren Methodik und Ergebnisse für die Bildungsbereiche Schule und Hochschule hinsichtlich ihrer Steuerungsrelevanz darstellen. 121 Bildung im Lebenslauf - Ergebnisse der Zeitverwendungserhebung 2012/13 Iris Gönsch1 Statistisches Bundesamt, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Bei Kindern und Jugendlichen nehmen Bildungsaktivitäten einen Großteil der verfügbaren Zeit ein. Während der Betreuungsaspekt lange den vorschulischen Bereich dominierte, rückte in den letzten Jahren der Bildungsaspekt immer stärker in den vordergrund. Als Bildungsphase wurden somit vor allem die ersten zwei bis drei Lebensjahrzehnte betrachtet, die dann von der Erwerbsphase abgelöst wurde. Obwohl die Bedeutung des lebenslangen Lernens schon früher diskutiert wurde, hat das Thema in der öffentlichen Wahrnehmung sowie in der deutschen und europäischen Politik erst Mitte der 1990er Jahre an Bedeutung gewonnen. Dies geschah insbesondere vor dem Hintergrund der schnelleren Veränderungen von Anforderungen an den Einzelnen in einer zunehmend auf Wissen basierten Gesellschaft und Wirtschaft (Alheit und Dausien, 2009). Neben der zeitlichen Dimension wird Bildung auch institutionell breiter betrachtet, zunehmend wird auch nicht-formelle Bildung berücksichtigt. Darunter versteht man Bildungsangebote, die beispielsweise von Vereinen, Verbänden, Unternehmen oder Kirchen organisiert werden und nicht zu allgemein anerkannten Bildungsabschlüssen führen. Das beschriebene umfassende Verständnis von Bildungsaktivitäten und die Ausweitung des Begriffes Bildung erschweren die empirische Erfassung und Analyse. Durch ihre verschiedenen Erhebungsinstrumente bietet die Zeitverwendungserhebung 2012/13 auf verschiedene Weise Informationen über die Zeit, die Personen bzw. Personengruppen für Bildung nutzen. Für Kinder unter 10 Jahren entstammen diese Informationen dem Haushaltsfragebogen, für Personen ab 10 Jahren dagegen aus dem Personenfragebogen bzw. dem Tagebuch. Während die Aktivitäten im Tagebuch frei beschrieben werden können, fragen sowohl der Haushalts- als auch der Personenfragebogen gezielt verschiedene Bildungsaktivitäten ab. Durch eine Kombination der Informationen aus den unterschiedlichen Erhebungsinstrumenten lässt sich aufzeigen, wie viel Zeit Personen unterschiedlicher Altersgruppen für Bildung nutzen. Dies wird nach Geschlecht und – soweit möglich – weiteren Merkmalen (z.B. Erwerbstätigkeit) differenziert. Während einerseits Bildungsaktivitäten als homogene Tätigkeit insgesamt betrachtet werden, werden diese im zweiten Schritt differenzierter betrachtet: Zunächst wird zwischen formellen und nicht-formellen Bildungsaktivitäten unterschieden. Im Bereich des informellen Lebenslangen Lernens wird außerdem zwi- 112 Statistische Woche 2015 15.-18. September, Hamburg schen berufsorientierter (Weiter-) Bildung, die während der Arbeitszeit stattfindet und Bildung außerhalb der Arbeitszeit (aus persönlichen Gründen oder für den Beruf) unterschieden. 122 Der Sozialindex für Hamburger Schulen Klaudia Schulte1 Institut für Bildungsmonitoring und Qualitätsentwicklung, Germany, [email protected] SECTION: Statistical Indicators for Policy Monitoring Hamburg ist eine Stadt beträchtlicher sozialer Disparitäten: Während in einigen Regionen vor allem Personen mit hohen Einkommen und Bildungsabschlüssen wohnen, ballen sich in anderen Regionen soziale Problemlagen wie hohe Arbeitslosigkeit und Kinderarmut. Diese heterogenen Ausgangslagen spiegeln sich auch in den Schulen wider. Da jedoch die sozialen Bedingungen, aus denen Schülerinnen und Schüler stammen und in denen sie lernen, ausschlaggebend für den Lernerfolg und Bildungsabschlüsse sind, verteilen sich auch die Bildungs- und Teilhabechancen der Schülerinnen und Schüler sehr unterschiedlich. Kinder aus sozial schwierigen Verhältnissen sind in Großstädten oft doppelt benachteiligt: Sie bringen von zu Hause aus weniger Unterstützung mit und besuchen darüber hinaus häufig Schulen mit einem hohem Anteil von Schülerinnen und Schülern aus belasteten Verhältnissen (Kompositionseffekt). Diese Schulen müssen in der Folge erhebliche Mehrarbeit leisten. Um den vorhandenen Ungleichheiten entgegenzuwirken, gibt es den Hamburger Sozialindex für alle staatlichen allgemeinbildenden Schulen. Der Sozialindex beschreibt die sozialen Rahmenbedingungen der Schulen auf einer Skala von 1 (stark belastet) bis 6 (wenig belastet). Die Schulindizes haben unter anderem erhebliche Auswirkungen auf Ressourcenallokationen (z. B. kleinere Klassenfrequenzen für Schulen mit Sozialindex 1 oder 2). Zur Berechnung des Sozialindex werden seit 1996 alle fünf bis sieben Jahre über 30.000 Schülerinnen und Schülern sowie deren Eltern mit Fragebögen zu ihrem sozialen Hintergrund befragt. Darüber hinaus werden amtliche Daten aus dem Statistikamt Nord in die Berechnung integriert, z.B. der Anteil der Arbeitslosigkeit. Anhand exploratorischer und konfirmatorischer Faktorenanalysen auf Schulebene wird ein intervallskalierter Belastungssore als Grundlage für die sechsstufige Einteilung des Sozialindex berechnet. Im Rahmen des Vortrags werden die theoretische Fundierung sowie die Berechnungsmethode des Sozialindex erläutert. 123 Forecasting Comparison of Long Term Component Dynamic Models For Realized Covariance Matrices Luc Bauwens1 , Belgium, [email protected] SECTION: Empirical Finance Novel model specifications that include a time-varying long run component in the dynamics of realized covariance matrices are proposed. The adopted modeling framework allows the secular component to enter the model structure either in an additive fashion or as a multiplicative factor, and to be specified parametrically, using a MIDAS filter, or non-parametrically. Estimation is performed by maximizing a 113 15.-18. September, Hamburg Statistische Woche 2015 Wishart quasi-likelihood function. The one-step ahead forecasting performance of the models is assessed by means of three approaches: the Model Confidence Set, (global) minimum variance portfolios and Value-at-Risk.The results provide evidence in favour of the hypothesis that the proposed models outperform benchmarks incorporating a constant long run component, both in and out-of-sample. 124 Testing for Cojumps - A Multivariate Coexceedance-based Approach Markus Kösler1 Universität Köln, Germany, [email protected] SECTION: Empirical Finance We consider the problem of testing the synchronicity of jumps, i.e., the presence of cojumps, using high frequency financial data. This is done in the framework of multivariate log price processes with stochastic volatility and compound Poisson jump processes. Testing for cojumps requires a univariate jump detection procedure that tests for and locates jumps. To this end we apply the approach by Lee and Mykland (2008) that relies on univariate returns standardized by a jump-robust local volatility estimator. This test for the null hypothesis of no jumps relies on arguments from extreme value theory to control the overall size of the procedure, considering the multiple testing nature of the problem. Lee and Mykland (2008) show that there exists an optimal critical value that minimizes the joint probability of global misclassification (Type I + Type II error), but that depends on the unknown number of jumps. We propose an iterative updating procedure for the critical value and show that it converges to this optimal value under mild conditions. We propose several test statistics for the null hypothesis of independent jump processes against the alternative of dependent jump processes. The test statistics compare the number of coexceedances with their expected number under the null of independent jump processes. We derive the asymptotic distributions of these test statistics under double asymptotics, increasing both the observation frequency and the length of the sample. It is shown that the asymptotic distributions do not depend on the jump detection and the estimation of the unknown jump intensity. For finite samples we suggest a block bootstrap procedure that can mitigate size distortions of some of the test statistics. Furthermore, we extend the tests to the context of non-homogeneous jump occurrences using Hawkes processes to model the jump intensities. A comprehensive Monte Carlo study examines the finite sample properties of the tests in a realistic market scenario and an application to financial high-frequency data illustrates its practical use. 125 Bayesian Regularization of Portfolio Weights in High-Dimensional Asset Spaces Christoph Frey1 , Winfried Pohlmeier Universität Konstanz, Germany, [email protected] SECTION: Empirical Finance 114 Statistische Woche 2015 15.-18. September, Hamburg We propose a novel regression approach for optimizing portfolios by means of Bayesian regularization techniques. In particular, we represent the weight deviations of the global minimum variance portfolio (GMVP) from a reference portfolio (e.g. the naive 1/N portfolio) as regression coefficients and apply different shrinkage techniques in order to stabilize the portfolios against estimation errors. Directly modeling the optimal portfolio weights through Bayesian priors avoids estimating the moments of the asset return distribution and tremendously reduces the dimensionality of the problem. Our methodology is applicable when the number of assets is large compared to the time dimension and it can incorporate inequality restrictions on the portfolio weights. We compare our method to popular frequentist shrinkage approaches and find that it shows better out-of-sample performance based on various criteria. This holds for different asset classes and is stronger for larger portfolio dimensions. 126 Prior information, but no MCMC: A Bayesian Normal linear regression case study Katy Klauenberg1 , Gerd Wübbeler, Bodo Mickan, Peter Harris, Clemens Elster Physikalisch-Technische Bundesanstalt, Germany, [email protected] SECTION: Statistics in Science and Technology Regression is a very common task and frequently additional a priori information exists. Bayesian inference is well suited for these situations. However, often the need for MCMC methods and difficulties in eliciting prior distributions prevent the application of Bayesian inference. Oftentimes prior knowledge is available from an ensemble of previous, similar regressions. Pooling the posterior distributions from previous regressions and approximating the average by a wide distribution from a parametric family is suitable to describe practitioners’ a priori belief of a similar regression. Likewise for linear regression models with Gaussian measurement errors: prior information from previous regressions can often be expressed by the normal inverse Gamma distribution - a conjugate prior. Yielding an analytical, closed form posterior distribution, one can easily derive estimates, uncertainties and credible intervals for all parameters, the regression curve as well as predictions for this class of problems. In addition, we describe Bayesian tools to assess the plausibility of assumptions behind the suggested approach - also without Markov Chain Monte Carlo (MCMC) methods. A typical problem from metrology will demonstrate the practical value. We apply the Normal linear regression with conjugate priors to the calibration of a flow device and illustrate how prior knowledge from previous calibrations may enable robust predictions even for extrapolations. In addition we provide software and suggest graphical displays to also enable practitioners to apply Bayesian Normal linear regression. 127 Objective Bayesian inference for random effects in a random effects model Olha Bodnar1 , Alfred Link, Clemens Elster Physikalisch-Technische Bundesanstalt, Germany, [email protected] 115 15.-18. September, Hamburg Statistische Woche 2015 SECTION: Statistics in Science and Technology Random effects models play an important role in statistics. They are commonly applied when measurements on the same entity are taken at different times or different locations. Examples comprise the combination of results from different clinical studies in medical research, or the analysis of interlaboratory studies in metrology. In particular for the latter application prediction of the random effects is of great interest. We are interested in an objective Bayesian inference of a particular type of heteroscedastic random effects models relevant in metrology. We contribute to existing approaches by providing the posterior distribution for the realizations of the random effects in analytical form up to one-dimensional quadrature. As noninformative priors Jeffreys prior as well as the Berger and Bernardo reference prior are derived. The inferential properties of the posteriors are investigated in terms of simulations. This is achieved by constructing 95% credible intervals and exploring their lengths and coverage probabilities. Moreover, we investigate the robustness of the inferences when model assumptions are violated. Finally, results for an interlaboratory comparison from metrology are presented and discussed. 128 Functional outlier detection using data depth in a thermal spraying process André Rehage1 , Sonja Kuhnt TU Dortmund, Germany, [email protected] SECTION: Statistics in Science and Technology Functional data analysis is a rapidly growing topic in statistical analysis and respective extensions of classical data analysis tools like PCA, data depth or GLM can be found in the literature. We consider an application in thermal spraying, where due to advanced measurement technology, particle properties in flight are recorded over time, resulting in functional data and the use of functional generalized linear models. As in other situations, outliers can occur and severely influence the data analysis. Functional outliers can be divided in at least two different categories: Magnitude outliers and shape outliers. For each type, functional data depths have been constructed that assign an index determining the outlyingness of each observation. As functional depth measure with respect to magnitude we look at the modified band depth. Having shape outliers in mind, we recently developed the functional tangential angle depth. In this contribution we show how the different outlier types affect the estimated model and how outlier detection can be performed to improve the reproducibility and predictability, utilizing real life data from the thermal spraying process. 129 Methods from algebraic statistics to determine identifiable regression models from noisy designs Sonja Kuhnt1 , Riccomagno Eva, Rudak Nikolaus FH Dortmund, Germany, [email protected] 116 Statistische Woche 2015 15.-18. September, Hamburg SECTION: Statistics in Science and Technology A key element in the design of experiments is the question which regression models can be estimated from the resulting data. We consider situations where observations or predictions from the chosen experimental design are themselves input variables for an eventual output. An application in thermal spraying is treated, where noisy non-standard designs occur as intermediate result in such a two stage process. The entry to using tools from algebraic statistics for the study of model identifiability is the presentation of design points as zeros of a system of polynomial equations. Thereby the design is identified by a polynomial ideal whose properties provide insight into the models identifiable by the design. We extend this approach, which is so far based on exact input data, to noisy designs by use of a numerical version of the Buchberger-Möller algorithm. Applied to the thermal spraying application this opens model building towards higher order interactions rather than restricting the class of considered models to main effects or two-way interactions only. 130 Indikatoren für den vorschulischen Bildungsbereich Ulrike Rockmann1 Senatsverwaltung für Inneres und Sport Berlin, Germany, [email protected] SECTION: Regional Statistics Der vorschulische Bildungsbereich ist seit längerem in den Fokus der bildungspolitischen Debatte gerückt. Die Erwartungen an diesen frühen Bildungsabschnitt sind vielschichtig. Angestrebt wird eine hohe Qualität der Bildungs- und Betreuungsaktivitäten, die u. a. einen guten Übergang in die Schule ermöglichen sollen. Insbesondere in Städten wie Berlin mit großen sozialen Ungleichheiten und einem hohen Anteil von nicht Deutsch sprechenden Familien stellen diese Erwartungen eine nicht unerhebliche Herausforderung für die Einrichtungen dar. Die Situationsbeschreibung für diesen Bildungsabschnitt folgt der international gängigen Gliederung in Kontext/Input – Prozess – Output/Outcome. Das Kontext/Input-Segment beschreibt die Bereitstellung der Angebote. Durch den Ausbau der amtlichen Kinder- und Jugendhilfestatistik steht inzwischen eine Vielzahl von einfachen Kennziffern und komplexen Indikatoren zur Verfügung, so über die Einrichtungen, das Personal sowie dessen Qualifikationen. Über den Prozess – Teilnahmeverlauf, pädagogischen Angebote, etc. – ist hingegen nur wenig deutschlandweit bekannt. Die im Rahmen des National Education Panel Surveys (NEPS) hierzu erhobenen Informationen sind aufgrund der Fallzahl nur für deutschlandweite aber nicht für kleinräumige Analysen nutzbar. Im Unterschied zu anderen Bildungsbereichen liegt beim Verlassen der Kindertageseinrichtungen kein formaler Abschluss vor. Die vor Schuleintritt durchgeführte Sprachstandserhebung kann grundsätzlich im Zusammenhang mit den Angeboten der Kindertageseinrichtungen stehen, jedoch sind sowohl die in den Einrichtungen durchgeführten Maßnahmen und Förderprogramme wie auch die Erhebung selber in jedem Bundesland weiterhin völlig unterschiedlich. Am Beispiel von Berlin sowie dem Stadtbezirk Mitte werden Überlegungen zu einem Indikatorenset vorgestellt. 131 Zensus 2011: Deutschlandweit kleinräumige Daten Stephanie Hirner1 , Michael Neutze Statistisches Bundesamt, Germany, [email protected] 117 15.-18. September, Hamburg Statistische Woche 2015 SECTION: Regional Statistics Eines der Kernmerkmale des Zensus ist die Datenerhebung für jede Anschrift. Mit keiner anderen Statistik können Informationen zur Bevölkerung und zur Wohnsituation in so hoher räumlicher Auflösung ausgewertet werden. Traditionell wurden Ergebnisse von Volkszählungen bis hinunter zur Blockseite bereitgestellt. Diese Zuordnung ist jedoch nicht maschinell umsetzbar und es gibt dafür keine einheitliche Vorgehensweise. Beim Zensus 2011 hatten die Kommunen die Möglichkeit, den Statistischen Ämtern des Bundes und der Länder eine Blockseitenzuordnung oder andersartige untergemeindliche Gliederungen zu überliefern um danach aggregierte Zensusergebnisse zu erhalten. Für Städte mit abgeschotteter Statistikstelle besteht zudem die Möglichkeit, für einen begrenzten Zeitraum Einzeldaten mit Anschriftenbezug zu erhalten, sodass sich diese Städte selbst Zensusergebnisse in untergemeindlichen Gliederungen erzeugen können. Von diesen Möglichkeiten ist nicht flächendeckend Gebrauch gemacht worden, sodass untergemeindliche Zensusergebnisse oder gar solche für Blockseiten nicht durchgängig vorausgesetzt werden können bzw. können sie in Teilen von Planungsräumen vorhanden sein und dann aber an der Stadtgrenze abrupt enden. Hier setzt die Georeferenzierung mit der Zuordnung der Zensusergebnisse zu einem europaweit einheitlich definierten 100m-Gitter an (INSPIRE). Dieses ist einerseits künstlich, indem es nicht der Gebäude- und Wegestruktur folgt, aber es war aufgrund der Geokodierung aller Anschriften des Zensus mit vergleichsweise geringem Aufwand maschinell und flächendeckend zu erzeugen. Mittels moderner Geographischer Informationssysteme (GIS) lassen sich diese gitterbasierten Ergebnisse visualisieren und mit anderen Karteninformationen verschneiden. Die Präsentation wird die unterschiedlichen georeferenzierten Produkte des Zensus 2011 vorstellen, vom interaktiven Online-Atlas bis zur Bereitstellung von Massendaten zum Download und diese der Ergebnispräsentation für administrative Gliederungen gegenüberstellen. Ein halbes Jahr nach Veröffentlichung gitterbasierter Zensusergebnisse in Karten- und Tabellenform liegen erste Erfahrungen mit der Nutzung dieser Ergebnisdarstellung vor. Schließlich wird auf die gesetzlich vorgeschriebene Geheimhaltung eingegangen. Es wird aufgezeigt, welche Größenordnungen die erforderlichen Sperrungen in Abhängigkeit von inhaltlicher wie räumlicher Tiefe ausmachen und welche Empfehlungen für den praktischen Umgang abgeleitet werden können. 132 Dichteschätzung von Migranten auf Basis des Berliner Einwohnerregisters Timo Schmid1 , Marcus Groß, Ulrich Rendtel, Sebastian Schmon, Nikos Tzavidis Freie Universität Berlin, Germany, [email protected] SECTION: Regional Statistics Modern systems of official statistics require the timely estimation of area-specific densities of subpopulations. Ideally estimates should be based on precise geo-coded information, which is not available due to confidentiality constraints. One approach for ensuring confidentiality is by rounding the geocoordinates. In this talk we propose multivariate non-parametric kernel density estimation that reverses the rounding process by using a Bayesian measurement error model. The methodology is applied to the Berlin register of residents for deriving density estimates of ethnic minorities and aged people. Estimates are used for identifying areas with a need for new advisory centres for migrants and infrastructure for older people. In addition we empirically evaluate the performance of the proposed methodology under different assumptions for the rounding error process with data generated from known bivariate densities. 118 Statistische Woche 2015 15.-18. September, Hamburg The precision of the density estimates provided by the proposed methodology is contrasted to the precision of the estimates derived by using a Naive kernel density estimator that fails to account for the presence of rounding error. 133 Regionaler Bildungsatlas Hamburg Flavia Suter1 , Sebastian Leist Institut für Bildungsmonitoring und Qualitätsentwicklung (IfBQ), Germany SECTION: Regional Statistics Der Regionale Bildungsatlas Hamburg ist ein interaktives Onlinetool, das detaillierte statistische Informationen zum Thema schulische und außerschulische Bildung für das gesamte Hamburger Stadtgebiet bereitstellt. Im Vortrag wird anhand ausgewählter Fragestellungen demonstriert, wie Daten zu Bildungs- und Betreuungsangeboten, Nutzungszahlen, Schuleinzugsgebieten, Bildungsübergängen und Abschlüssen für die einzelnen Hamburger Stadtgebiete in interaktiven Karten abgerufen und miteinander verknüpft werden können. Weitere Funktionalitäten der interaktiven Karten wie das Anzeigen von Zeitreihen oder weiteren Gebietsgrenzen werden ebenfalls vorgeführt. Im letzten Teil des Vortrags wird der Aspekt der Nutzung des Regionalen Bildungsatlas durch lokale und bezirkliche Akteure für eine regionale Bildungssteuerung näher beleuchtet. 134 ESTIMATION OF STRUCTURAL BREAKS AND SPATIAL BOUNDARIES IN BRAIN SIGNALS AND IMAGES Hernando Ombao1 University of California, Irvine, United States of America, [email protected] SECTION: Time Series with Structural Breaks The human brain is a highly complex organ. One of its primary function is to extract relevant information from sensory inputs: light, sound, temperature, spatial orientation and more. The brain exerts centralized control over the other organs of the body which is needed for rapid and coordinated responses to changes in the environment. The brain is also responsible for processing new information as it learns to adapt to the changing environment and to learn new tasks. The brain’s response to the constantly-changing external inputs is highly dynamic. In fact, brain activity at a localized region (or channel) following a stimulus presentation often displays temporal non-stationarity as reflected by changes in the variance, auto-correlation and spectrum. In addition, the strength of dependence between different regions (or group of channels) can also vary across time within an epoch and across epochs in the entire experiment. Moreover, it is widely accepted that local populations of neurons generally exhibit local-specific behavior that could vary across other brain regions. The task then would be to determine these spatial boundaries. In this talk, we will discuss these open problems and present an overview of the novel spectral-based approaches currently being developed in our group. To determine spatial boundaries, we develop a clustering method where the dissimilarity measure between two brain signals is defined to be the total variation 119 15.-18. September, Hamburg Statistische Woche 2015 distance between their spectral densities. We propose the novel hierarchical merger algorithm which is a modification of the usual agglomerative hierarchical procedure. We present some data visualization techniques and apply our method to electroencephalograms (EEGs) recorded in a motor learning study. 135 A multi scale method for change point detection in point processes Michael Messer, Stefan Albert, Julia Schiemann, Jochen Roeper, Ralph Neininger, Gaby Schneider1 Goethe University Frankfurt, Germany, [email protected] SECTION: Time Series with Structural Breaks Nonstationarity of the event rate is a persistent problem in modeling time series of events, such as neuronal spike trains. Motivated by a variety of patterns in empirical spike trains, we define a class of renewal processes with a certain variability in the variance of life times. Within this class we test the null hypothesis of stationary rate versus a wide alternative of renewal processes with finitely many rate changes (change points). Extending ideas from the filtered derivative approach, we propose to use multiple moving windows simultaneously in the statistical test. We also develop a corresponding multiple filter algorithm. This can be used when the null hypothesis is rejected in order to estimate the number and location of change points. In a simulation study we show an increased detection probability of multiple filtering as compared to a single window approach. We also discuss implications of our approach to the detection of variance change points. Application to spike trains recorded from dopamine midbrain neurons in anesthetized mice illustrates the relevance of the proposed techniques as preprocessing steps for methods that assume stationarity of the process parameters. 136 Long-run variance and change-set estimation for spatial data under change-point alternatives Béatrice Bucchia1 Universität zu Köln, Germany, [email protected] SECTION: Time Series with Structural Breaks In this talk, we consider the problem of estimating the long-run variance of a multiparameter stochastic process whose mean-function has an abrupt jump. We assume that the process is the sum of its mean function and a centered weakly stationary process that fulfills some weak dependence and moment conditions. Due to the non-constant mean, kernel-type long-run variance estimators using the arithmetic mean of the observations as a mean estimator have an unbounded error for changes that do not vanish asymptotically. To reduce this effect, we use a mean estimator which is based on an estimation of the change-set. We give some examples of mean estimators under different assumptions on the type of change-set. 120 Statistische Woche 2015 15.-18. September, Hamburg 137 Airborne multipollutants population exposure in Europe using semiparametric spatio temporal models Alessandro Fasso’1 , Francesco Finazzi, Ferdinand Ndongo University of Bergamo, Italy, [email protected] SECTION: DStatG/ISG We consider the distribution of population by exposure to multiple airborne pollutuants at various spatial and temporal resolutions over Europe. To do this we use high resolution semiparametric estimates of daily average concentrations for seven pollutants in years 2009-2011. In order to exploit the spatial information content and allow the computation of daily multipollutant exposure distribution, uncertainty included, we use a multivariate spatio-temporal model capable to handle non Gaussian large datasets such as multivariate and multiyear daily air quality, land use and meteorological data over Europe. 138 Spatio-temporal wind speed forecasting Daniel Ambach1 , Wolfgang Schmid Europa-Universität Viadrina, Frankfurt (Oder) SECTION: DStatG/ISG Currently, we observe a broad variety of different wind speed and wind power prediction models as Jung and Broadwater (2015) cover. For instance state Numerical Weather Predictions utilize huge amounts of computing time. Some of them have rather low spatio-temporal resolution. However, time series prediction model provide good results for univariate temporal predictions. Ambach and Schmid (2015) achieve good results with a periodic regressors and an autoregressive fractional integrated moving average model which incorporates conditional heteroscedasticity within the variance part. Concerning the wind power prediction Croonenbroeck and Ambach provide an overview of several time series models as Soman et al. (2010) point out. The consumption of computing capacities of those time series model is relatively low and return accurate short-term to medium-term forecasts as. Though, the recent literature deal with the topic of spatial interdependence like Han and Chang (2010) or Zhu et al. (2014). This presentation will cover the problem of spatial and temporal wind speed modelling. We describe the temporal model structure independently on spatial correlations. The main aim is to deal with a model for wind speed which is easy applicable and provide reliable forecasts in both space and time. The recommendation is to use a periodic space-time autoregressive model with external explanatory variables which describe the wind dynamics. The periodicities are modelled by periodic B-spline functions (see Eilers and Marx 1996) and space and time autoregressive components (see Cressie and Wikle 2011). The wind speed observations are noisy meteorological variable, which makes it hard to model, but the presented spatio-temporal model provides a useful procedure to predict the wind speed. 1 Ambach D., Schmid W. (2015); Periodic and long range dependent models for high frequency wind speed data. Energy 82:277-293. 121 15.-18. September, Hamburg Statistische Woche 2015 2 Cressie N., Wikle C.K. (2011); Statistics for spatio-temporal data. John Wiley & Sons 3 Eilers P.H., Marx B.D. (1996); Flexible smoothing with b-splines and penalties. Statistical Science 89-102. 4 Han Y., Chang L. (2010); A study of the reduction of the regional aggregated wind power forecast error by spatial smoothing effects in the maritimes Canada. In: 2nd IEEE International Symposium on Power Electronics for Distributed Generation Systems 942-947. 5 Jung J., Broadwater R. P. (2014); Current status and future advances for wind speed and power forecasting. Renewable and Sustainable Energy Reviews 31:762-777 . 6 Soman S. S., Zareipour H., Malik O., Mandal P. (2010); A review of wind power and wind speed forecasting methods with different time horizons. IEEE In North American Power Symposium (NAPS) 1-8. 7 Zhu X., Genton M.G., Gu Y., Xie L. (2014); Space-time wind speed forecasting for improved power system dispatch. Test 23(1):1-25. 139 The Fallacy of the Log-Ratio Standard for Econometric Analysis Christian Westphal1 none, Germany, [email protected] SECTION: Empirical Economics and Applied Economics The use of log-ratios is widespread for the econometric analysis of economic problems: OLS estimators’ results conveniently represent elasticities between percentages. Often, the same denominator is used for the ratio that is the dependent variable, and for the ratio that is the independent variable. This model on paper is ‘elegant’, and ‘compact’, and it leads to an interpretation that appeals to economists. It is sort of a ‘de-facto standard’, set by even highest ranked publications in economic journals. Yet, there is an enormous problem with the use of log-ratios for regression analysis: it can (and most often will) lead to heavily biased results through an ignored linear restriction. Biased results, however, should never be the grounds for economic policy. This phenomenon is well known since Karl Pearson’s findings on spurious correlation between ratio variables in 1896. It has been revisited in detail for the case of regression analysis with ratio variables by Kronmal (1993), leading to the unsatisfactory – and in my experience yet euphemistic – conclusion of “it may be difficult to convince some researchers that they should give up their most prized ratio or index.” For the log-ratio standard, the problem is even more pronounced: using log-ratios imposes a linear restriction on the estimator. Whenever this artificial restriction is not true, results will be biased. I show the problem’s econometric theory, I provide ways to detect the problem, and I illustrate the problem’s severeness. Using an example of a Journal of Public Economics article, I explore a more complex situation. That article was the basis for arguments for stricter gun control in the United States over many years. It is a prime example where biased results were used for a public policy argument. I conclude on methodologically straightforward solutions to the problem. 122 Statistische Woche 2015 15.-18. September, Hamburg 140 Synthetic Control Methods: Never Use All Pre-Intervention Outcomes as Economic Predictors Ashok Kaul, Stefan Kloessner, Gregor Pfeifer1 , Manuel Schieler Universität Hohenheim, Germany, [email protected] SECTION: Empirical Economics and Applied Economics We show that when applying synthetic control methods, it is vital to carefully handle pre-treatment observations of the outcome variable. In particular, we demonstrate both theoretically and by taking empirical examples from the literature that using all lagged values of the dependent variable as separate economic predictors renders all other covariates irrelevant, i.e. weights of zero are assigned to all other covariates. This holds no matter what the covariates actually are and how important and helpful these might be in order to predict post-treatment values of the outcome variable, undermining the original idea of exploiting economic predictors with power for explaining the outcome of interest. Actually, one obtains the same synthetic control as if one uses economically meaningless economic outcome predictors - or even no economic outcome predictors at all. Moreover, we exemplify that estimation results may change considerably when, in order to avoid this pitfall, only a single pre-treatment measure of the outcome is used as additional economic predictor. 141 Dynamic copula based multivariate discrete choice models Hans Manner1 , Michael Eichler, Dennis Türk Universität zu Köln, Germany, [email protected] SECTION: Empirical Economics and Applied Economics We propose a dynamic model for multivariate binary outcomes, which allows the latent variables driving these observed outcomes to follow a vector autoregressive process. Furthermore the model is constructed using a copula representation for the joint distribution of the resulting innovations. This has several advantages over the standard multivariate probit model. First, it allows for nonlinear dependence between the error terms. Second, the univariate link function can be chosen freely. Third, the computational burden is greatly reduced making estimation feasible in higher dimensions and for large samples. Finally, the model can easily be extended to allow for ordered outcomes and one may even model ordered and binary outcomes jointly. Conditions, needed for the the estimated dependence parameter to lie inside the boundary of the permissible parameter space are given and a solution for (small sample) cases in which these conditions are not full filled is presented. Furthermore, the computation of marginal effects and the choice of the copula for dimensions larger than two are treated. We present results from a simulation study and provide two applications. First, we treat the problem of forecasting the probability of extreme price (co-) occurrences, so called (co-) spikes, in Australian high frequency electricity markets, and second, we jointly model recession probabilities for four major economies. 142 Modelling and Diagnostics of Spatially Autocorrelated Counts 123 15.-18. September, Hamburg Statistische Woche 2015 Stephanie Glaser1 , Robert Jung Universität Hohenheim, Germany, [email protected] SECTION: Empirical Economics and Applied Economics This paper proposes a spatial linear feedback model for the econometric modelling of spatial counts which incorporates a global spatial correlation parameter. The model aims at supplying an easy to estimate and easy to interpret alternative for the empirical economist who is interested in studying firm investment location decisions and beyond. In particular this approach offers an intuitive interpretation of the spatial correlation parameter as the impact of neighboring observations on the conditional expectation which distinguishes it from recent models for spatially autocorrelated counts. In addition, it overcomes the numerical difficulties associated with the full information maximum likelihood estimation of the previously by Lambert, Brown, and Florax introduced spatial autoregressive (SAR)-Poisson model caused mainly by the need to invert a transformation of the n × n spatial weight matrix, where n denotes the sample size by using a pseudo maximum likelihood approach. The estimation approach is checked using a Monte Carlo study. In non-spatial count data regression the Poisson model is regularly not able to deal with unobserved heterogeneity in the data. One way to overcome this is to allow for a more flexible variance function as in the negative binomial (NB) regression model. We propose to allow for such flexibility in spatial count data models as well and employ a negative binomial variant of our proposed model specification. Finally, our paper also advocates the routine use of diagnostic tools and model validation methods to assess the adequacy of a fitted model and to compare two or more competing model specifications. For this purpose we propose i.a. a suitably adjusted variant of the probability integral transform (PIT) and scoring rules. We illustrate the application of the proposed model and methods with a US start-up births data set. 143 Normal Mixture variance states for structural identification of financial market models Sebastian Christoph Müller1 Universität Kiel, Germany, [email protected] SECTION: Empirical Finance In multivariate models the interacting dynamics of several endogeneous variables can be estimated and projected to the future. When it comes to a structural perspective these models need to borrow from economic theory. Identifying assumptions are imposed to reveal contemporaneous causalities, since the reduced form model does not provide sufficient information. Historically, extra information is introduced through restrictions on the instantaneous parameters, e.g., through a simple Cholesky decomposition, from assumptions on the long-run effects of shocks or by restricting parameter signs based on apriori knowledge or researchers judgement. Recent statistical alternatives make use of information from higherorder moments. The identification problem can be solved by exploiting Normal Mixture states in the structural variances for an exact identification. Thus, additionally imposed restrictions become testable. A Normal Mixture variance structural vector-autoregressive model (NMH-VAR) is employed to investigate the contemporaneous causal transmissions of structural shocks between the real and financial economy, 124 Statistische Woche 2015 15.-18. September, Hamburg the central bank and the brazilian Real/ US-Dollar FX market. Subsequently, variance decompositions shet light on the relative importance of informational surprises from orthogonal sources. 144 True and Spurious Long Memory in Inflation Rates Saskia Rinke1 , Marie Holzhausen, Christian Leschinski Leibniz Universität Hannover, Germany, [email protected] SECTION: Empirical Finance The persistence of inflation is of major importance to central banks due to the fact that it determines the costs of monetary policy. It is well established that inflation rates exhibit long memory. However, there is an ongoing debate which degree of persistence can be attributed to true long memory and how much is only spurious due to mean shifts. Therefore, we apply newly available methods to detect spurious long memory and to estimate the memory parameter robustly under structural breaks. By combining these estimates with breakpoint estimation algorithms which are valid under long memory, we are able to consistently estimate the number and location of structural breaks. We apply these methods to monthly inflation rates of the G7 countries. Our results show that at least part of the memory in all series is spurious. However, breaks are only found for a few countries. This leads to the conclusion that inflation is more likely described by smooth trends. 145 Risks and Opportunities of Social Trading: Econometric Analysis of Virtual Trades and Returns Alexander Jonen1 Helmut-Schmidt-Universität Hamburg, Germany, [email protected] SECTION: Empirical Finance Social trading is an innovative web 2.0 based form of unregulated investment consultancy as well as a kind of asset management service for private investors. Substantial features of this steadily growing investment style are a low level of qualification requirements for new traders, vast information transparency concerning executed trading strategies and the possibility for private investors to follow these strategies and invest in them. In the course of our research, we begin by analyzing in how far income returns of exchange-listed social trading participation certificates (so-called wikifolios) exceed income returns of conventional types of investment. In a second step, we use a unique data set of virtual wikifolio trades and apply econometric methods to analyze in how far collective intelligence can be detected in the cross section. Moreover, we examine the risk-taking behavior as well as money management and forecasting ability of social traders. Concluding, we combine our empirical findings with the behavioral finance theory and introduce statistical metrics in order to predict sustainable trading success based on historical trades. Our results 125 15.-18. September, Hamburg Statistische Woche 2015 can be used to enrich the information content offered to investors, to discriminate long-term successful social traders from those that are not. 146 Tests for Location: An Analysis of Finite Sample Performance Vasyl Golosnoy1 , Markus Pape Ruhr-Universität Bochum, Germany, [email protected] SECTION: Empirical Finance A statistical justification of technical trading rules presumes that the investors are able to detect changes in mean returns of risky assets. In particular, a change of the local central tendency appears to be of most interest for short-run investment decisions. In our setting we assume that there is a (locally) constant mean in the pre-sample and there is a possibility of a mean change at some time point within the sample window. It is of interest to investigate the ability to detect such mean changes by testing the validity of the null hypothesis (the sample window mean is equal to the pre-sample mean) at the end of the sample window. For this purpose we compare the performance of two commonly used testing procedures, namely the usual mean difference test with possibly unequal variances (Welch test) as well as the Wilcoxon rank sum test. Our major intention is to explore how these tests perform in finite samples for different distributions characterizing observations from both pre-sample and sample windows. The obtained Monte Carlo evidence indicates that the power of the mean difference test decreases compared to that of the rank test in presence of fat tails, leptokurtosis as well as asymmetry in the underlying distributions. Conversely, changes occurring towards the end of the sample window are more likely to be detected by the mean difference test, which is hence the more powerful test for such cases. The empirical evidence is obtained by applying some technical trading rules based on mean differences to the Dow Jones Industrial Index Data. 147 Tensor regression models for multilayer networks with missing values Julian Körber1 , Aßmann Christian Otto-Friedrich Universität Bamberg, Germany, [email protected] SECTION: Statistical Analysis of Network Data Missing values in the analysis of social network data are a common problem occurring either as missing tie information or as missing nodal covariates. Missing values in multiple networks can additionally bias the estimation of between-layer interdependence. Ignoring missing tie information and analysing only complete cases redefines the boundary of a network and may lead to substantial loss of nodes. Ignoring missing values in covariates increases the bias of model estimation if both nodal and tie information shall be analysed. Observed covariates can be used to estimate missing tie information and vice versa with stochastic imputation models in a Bayesian framework using MCMC algorithms. There are data augmenting algorithms for the estimation of exponential random graph models (ERGM) with partly observed tie variables and covariates. While the ERGM is well established for single or bipartite networks 126 Statistische Woche 2015 15.-18. September, Hamburg it has deficits in the estimation of multiple networks with missing values. Also, ERGMs tend to suffer from non-convergence of estimating algorithms. The multilinear tensor regression model (MTRM) generalizes a latent variable approach for single network matrices to multilayer network tensors. A latent normal variable approach is able to handle any type of tie variable via different link functions. The data tensor of a multilayer network is explained by a Kronecker-structured regression parameter and a separable covariance model making use of the Tucker product. The covariance structure of the MTRM can be used to model interdependencies between network layers. It is possible to add a data augmenting imputation step into the MTRM Gibbs sampler, estimating network parameters conditionally on completed tie information and covariates. The performance of the ERGM and the MTRM shall be compared in the estimation of missing network information and goodness of fit. 148 Stable Exponential Random Graph Models with non-parametric components for large networks Stephanie Thiemichen1 , Göran Kauermann LMU München, Germany, [email protected] SECTION: Statistical Analysis of Network Data Exponential Random Graph Models (ERGM) are a common tool in network data analysis. The models describe the distribution of a network graph with an exponential family, where the statistics are counts of edges, k stars, or triangles, for instance. Though the models mirror the welcome properties of exponential families, their behaviour is quite unstable and the parameters space resulting in suitable network graphs is peculiarly shaped. In practice this results in either fully connected or fully unconnected networks and adds to complications with respect to numerical methods for fitting ERGMs. To compensate for this deficit exponentially weighted canonical statistics have been proposed in the literature (see e.g., Snijders et al., 2006, Sociological Methodology, or Hunter & Handcock, 2006, J. o. Computational and Graphical Stats.). Another problem arises when analysing large networks where the available MCMC based routines become infeasible. We propose to use a subsampling approach based on the conditional independence structure of a network (following Koskinen and Daragowne, 2013). Furthermore, we add non-linear statistics using a smoothing approach. The resulting subsample can be analysed using standard statistical software packages for Generalized Linear Models (GLM) or Generalized Additive Models (GAM), respectively. 149 Statistical network analysis of the international arms trade Christoph Jansen1 Institut für Statistik, LMU München, Germany, [email protected] SECTION: Statistical Analysis of Network Data We investigate the legal international arms trade in the time period from 1950 to 2012. Our analysis is based on data anually collected by the Stockholm International Peace Research Institute (SIPRI). Particularly, the intensity of trade between nations is measured by means of SIPRI’s trend indicator 127 15.-18. September, Hamburg Statistische Woche 2015 value (TIV). However, due to the relational structure of the data (for instance the trading behaviour of nation A might be highly dependent of the one of nation B, if the two are at war), statistical standard procedures (such as logistic regression analysis) are hardly applicable, since these often require to make untenable independency assumptions. Here, statistical network analysis provides a powerful theoretical framework: By interpreting the data (for each year) as one single observation of a (matrix-valued) random variable, the dependency structure can explicitly be taken into account. Firstly, we will carry out a descriptive analysis of the data. Here, apart from studying the common network characteristics (such as density, closeness, degree-distribution), we will focus on identifying structures that remain stable within the whole period under consideration. These structures then serve as a basis for the inferential analysis. Subsequently, we use Exponential Random Graph Models (ERGMs) for an inferential analysis of the data. ERGMs allow to model the international arms trade network (for any year) directly on the basis of the stable characteristics identified within the descriptive analysis. We briefly describe the (MCMC-driven) estimation of the model paramters and discuss different ways of interpreting them. Finally, we compare the paramter estimates for the different years in order to learn about the dynamics of international arms trade. 150 Detecting Schooling Markets in the Federal State of Hamburg Sebastian Leist1 , Marcus Pietsch Institut für Bildungsmonitoring und Qualitätsentwicklung (IfBQ), Hamburg, Germany, [email protected] SECTION: Statistical Analysis of Network Data This article deals with the question of how it is possible to structure a large-scale schooling system by examining the relationships between schools. It aims at revealing spatial networks of schools within which students are being distributed (so-called schooling markets). Previous approaches define schooling markets a priori either according to administrative boundaries, or based on areas of responsibility of municipal authorities, or they group schools based on the location of schools, taking into account travel costs (time, distance) between these locations. The assumptions of these approaches are problematic and may cause incorrect estimates. By contrast, stochastic network approaches for the detection of groups offer an economic way of attributing schools to similar groups according to their relationship among each other. The advantages of this method lie first of all in the definition of groups based on an endogenous attribute of empirical data, and secondly, in the latent way of modeling which renders measurement errors irrelevant. The stochastic networks in this article were modeled with the R-Package “latentnet”. The network of relationships between the schools in Hamburg is based on flows of students moving from primary to secondary schools on the territory of the federal state of Hamburg previous to the start of school year 2014/15. Applying this stochastic network approach and using network data of students moving from primary to secondary schools, it will be demonstrated that it is possible to detect regional and, in a subsequent step of analysis, small-scale local schooling markets. After having detected schooling markets further analysis is possible, such as: • Measuring the competition between schools on local markets based on indicators • Description of social segregation among students • Exploration of individual functional mechanisms of those regional and local schooling markets 128 Statistische Woche 2015 15.-18. September, Hamburg 151 Ergebnisse des ESSnet Data Collection in Social Surveys Using ” Multiple Modes“ (DCSS) im Kontext der Modernisierung der amtlichen Haushaltsstatistiken in Deutschland Thomas Riede1 Statistisches Bundesamt, Germany, [email protected] SECTION: Methodology of Statistical Surveys Die amtlichen Haushaltsstatistiken in Europa sehen sich mit einer Reihe von sozialen, politischen und technologischen Herausforderungen konfrontiert. Eine sich daraus ergebende methodische Entwicklung ist die zunehmende Verwendung von Mixed-Mode-Erhebungsdesigns, in denen verstärkt Onlinefragebogen eingesetzt werden sollen. Vor diesem Hintergrund hat Eurostat im Jahr 2012 ein zweijähriges europäisches Kooperationsprojekt ins Leben gerufen. In dem ESSnet-Projekt “Data Collection in Social Surveys Using Multiple Modes“ (kurz: ESSnet DCSS) haben unter der Leitung Deutschlands fünf Mitgliedsstaaten des Europäischen Statistischen Systems (ESS) methodische Vorarbeiten für die Gestaltung von Erhebungen mit mehrere Modes geleistet. Schwerpunkt des ESSnets war daher die Gestaltung von Onlinefragebogen für die amtliche Erhebungen einerseits und andererseits wurde diskutiert, welche organisatorischen, methodischen und qualitativen Konsequenzen sich durch den Einsatz unterschiedlicher Modes ergeben. Vor dem Hintergrund der aktuellen Modernisierungspläne der amtlichen Haushaltsstatistiken in Deutschland stellt der Vortrag ausgewählte Ergebnisse des Projekts vor und zeigt kommende Herausforderungen auf. 152 Kohärente Schätzungen auf Personen- und Haushaltslevel Anne Konrad1 , Jan Pablo Burgard, Ralf Münnich Universität Trier, Germany, [email protected] SECTION: Methodology of Statistical Surveys In Haushaltssurveys werden in der Regel die Haushalte als Cluster gezogen, d.h. auf der ersten Stufe werden die Haushalte gezogen, auf einer zweiten Stufe alle Haushaltsmitglieder. Somit können Fragestellungen bezüglich Personen und Haushalten beantwortet werden. Im Allgemeinen sind für die Gewichtung zwei Strategien denkbar: zwei separat durchgeführte Gewichtungen sowie eine sogenannte integrierte Gewichtung bei der alle Personen in einem Haushalt sowie der Haushalt selbst das gleiche Gewicht erhalten. Nachteil ersterer Strategie ist, dass keine kohärenten Schätzergebnisse resultieren, d.h. beispielsweise Totalwertschätzungen des Einkommens basierend auf Personen- bzw. Haushaltsebene sind nicht äquivalent. Hierbei können die integrierten Gewichte entweder durch Kalibrierung auf Personenebene berechnet werden, indem die individuellen Hilfsmerkmale durch den Haushaltsdurchschnitt ersetzt werden. Oder die Kalibrierung geschieht auf Haushaltsebene, wobei die Personenmerkmale pro Haushalt aggregiert werden. Letztere Vorgehensweise empfiehlt die EU in den methodischen Richtlinien für die EU-SILC Befragung. 129 15.-18. September, Hamburg Statistische Woche 2015 Die Restriktion einheitlicher Gewichte innerhalb eines Haushaltes ist jedoch unter Umständen mit einem Informationsverlust verbunden. Dieser Beitrag untersucht mögliche Effekte dieser Informationsverdichtung auf die Schätzergebnisse. In einem zweiten Schritt wird basierend auf den zuvor gewonnenen Erkenntnissen eine alternative Gewichtungsstrategie vorgeschlagen, welche die vorhandenen Informationen sowohl auf Haushalts- als auch Personenebene ausnutzt und dennoch konsistente Schätzungen ohne die Restriktion einheitlicher Gewichte ermöglicht. Dabei werden die Kalibrierungen zunächst auf Personenund Haushaltsebene durchgeführt, jedoch unter Einbindung geschätzter Totalwerte für gemeinsame Variablen. Für die Kalibrierung auf Personenebene ist darüber hinaus der Clustereffekt einzubinden, welcher entsteht, da alle Haushaltsmitglieder als Einheit erhoben werden. Grundlage der Untersuchungen stellt eine auf einem synthetischen aber realitätsnahen Datensatz basierende Simulationsstudie dar. Hierbei werden alle vorgestellten Verfahren auf Verzerrungen und Effizienz verglichen. Die Forschungsarbeit findet im Rahmen des Forschungsprojektes Research Innovation for Official and Survey Statistics (RIFOSS) statt, das vom statistischen Bundesamt finanziert wird. 153 Zur Kombination von Optimierung und Balancierung in geschichteten Zufallsstichproben Martin Rupp1 , Ralf Münnich Universität Trier, Germany, [email protected] SECTION: Methodology of Statistical Surveys Bei der Optimierung von Stichprobendesigns von geschichteten Zufallsstichproben müssen heutzutage meist mehrere Variablen berücksichtigt werden. Gründe dafür sind unter anderem gestiegene Genauigkeits- und Effizienzanforderungen sowie Kostenrestriktionen der amtlichen Statistik. Zur Entwicklung eines optimalen Stichprobendesigns wird gerne eine optimale Allokation durchgeführt, wobei der Stichprobenumfang so auf die Schichten aufgeteilt wird, dass die Varianz eines geeigneten Schätzers minimiert wird. Optimiert man dabei nach mehr als einer Variablen, so spricht man von multivariater Allokation, bei der aufgrund der gleichzeitigen Betrachtung mehrerer Variablen die Entstehung von Zielkonflikten unumgänglich ist. Vielfach müssen auch gewisse Randverteilungen berücksichtigt werden. Das Ziel des vorliegenden Beitrages ist die Entwicklung von multivariaten optimalen Allokationen unter Berücksichtigung von Verteilungsnebenbedingungen. Zur Umsetzung dessen wird das Balanced Sampling vorgeschlagen. Im Unterschied zur Allokation wird dabei unter Verwendung von Hilfsinformationen eine Balancierung der Stichproben erreicht. In diesem Beitrag werden die Vereinbarkeit der Methoden der multivariaten Allokation und des Balanced Sampling diskutiert, Kombinationsmöglichkeiten vorgestellt und Kompromisse zwischen Allokation und Balancierung erläutert. Die Intention ist das simultane Ausnutzen von Balancierungs- und Optimierungsgedanken bei der multivariaten Allokation, um in der Praxis auftretende Probleme, etwa von geringen Zellbesetzungen oder gravierenden Disproportionalitäten, zu kontrollieren. Neben einer umfangreichen Diskussion werden anhand einer Simulationsstudie Vor- und Nachteile der betrachteten Methoden demonstriert und an einem konkreten Beispiel der amtlichen Statistik vorgeführt. Die Forschungsarbeiten finden im Rahmen des Forschungsprojektes Research Innovation for Official and Survey Statistics (RIFOSS) statt, das vom statistischen Bundesamt finanziert wird. 130 Statistische Woche 2015 15.-18. September, Hamburg 154 Zweistufige Auswahl und Analyse Titel der Session Siegfried Gabler1 Gesis, Germany, [email protected] SECTION: Methodology of Statistical Surveys Um den Designeffekt bei komplexen Auswahlen zu schätzen, ist es unter anderem nötig, die Varianz der interessierenden y-Werte zu schätzen. Häufig wird dazu einfach die Stichprobenvarianz genommen, insbesondere, wenn die Inklusionswahrscheinlichkeiten für die Einheiten alle gleich sind. In der Praxis werden häufig zweistufige Auswahlverfahren verwendet. In der ersten Stufe werden Gemeinden, in der zweiten Personen ausgewählt. Die Gemeinden werden dabei proportional zu ihrer Einwohnerzahl gezogen. Bei solchen komplexen Designs ist die Varianz des Schätzers nicht immer einfach zu schätzen außer, wenn auf der ersten Stufe mit Zurücklegen ausgewählt wird. Dann vereinfacht sich die Formel für die Varianzschätzung. Auf der zweiten Stufe werden die Sekundäreinheiten durch uneingeschränkte Zufallsauswahl ausgewählt. Im Folgenden untersuchen wir diesen Fall genauer und überprüfen, wie die Statistikpakete SPSS, Stata und R die Designeffekte schätzen. Als Anwendungsbeispiel dienen einfache Beispiele und der ALLBUS 2010. 155 Joint modelling of Anaemia and Malaria in children under five in Nigeria Samson Adebayo, Ezra Gayawan, Christian Heumann, Christian Seiler1 ifo Institut-Leibniz Institut für Wirtschaftsforschung, Germany, [email protected] SECTION: Statistics in Science and Technology In this study, we adopt geoadditive latent variable model (geoLVM) for binary and ordinal indicators to scrutinize the influence of variables of different types on morbidity from malaria and anaemia among young children in Nigeria. Latent variable models allow for the analysis of multidimensional response variables in such a manner that reveal the indicator’s underlying relationship that are caused by the latent variables. The structural model allows for latent dependent variables and explanatory variables to be examined. In this case study, the structural model was extended to a semi-parametric geoadditive regression that allows for modelling of linear and nonlinear covariate effects while accounting for locationspecific contextual factors through geographical effects. 156 Sampling inspection by variables under Weibull distribution and Type I censoring Peter-Th. Wilrich1 Freie Universität Berlin, Germany, [email protected] SECTION: Statistics in Science and Technology 131 15.-18. September, Hamburg Statistische Woche 2015 The lifetime (time to failure) of a product is modelled as Weibull distributed (with unknown parameters); in this case the logarithms of the lifetimes are Gumbel distributed. Lots of items shall be accepted if their fraction p of nonconforming items (items the lifetime of which is smaller than a lower specification limit tL ) is not larger than a specified acceptable quality limit. The acceptance decision is based on the r ≤ n observed lifetimes of a sample of size n which is put under test until a defined censoring time tC is reached (Type I censoring). A lot is accepted if r = 0 or r = 1 or if the test statistic y = µ̂ − kσ̂ is not smaller than the logarithm of the specification limit, xL = log(tL ), where k is an accepance factor and µ̂ and σ̂ are the Maximum Likelihood estimates of the parameters of the Gumbel distribution. The parameters of the sampling plan (acceptance factor k, sample size n and censoring time tC ) are derived so that lots with p ≤ p1 shall be accepted with probability not smaller than 1 − α. On the other hand, lots with fractions nonconforming larger than a specified value p2 shall be accepted with probability not larger than β. n and tC are not obtained separately but as a function that relates the sample size n to the censoring time tC . Of course, n decreases if the censoring time tC is increased. For tC → ∞ the smallest sample size, i.e. that of the uncensored sample, is obtained. Unfortunately, the parameters of the sampling plan do not only depend on the two specified points of the OC, P1 (p1 , 1−α) and P2 (p2 , β), but directly on the parameters τ and δ of the underlying Weibull distribution or equivalently, on the parameters µ = log(τ ) and σ = 1/δ of the corresponding Gumbel distribution. Since these parameters are unknown we assume that the hazard rate of the underlying Weibull distribution is nondecreasing (δ ≥ 1). For the design of the sampling plan we use the limiting case δ = 1 or σ = 1/δ = 1. A simulation study shows that the OC of the sampling plan is almost independent of σ if the censoring time tC is not smaller than the specification limit tL . 157 AR modification of ensemble forecasts for temperature Jürgen Groß1 , Annette Möller Otto-von-Guericke-Universität Magdeburg, Germany, [email protected] SECTION: Statistics in Science and Technology Given a numerical weather prediction (NWP) ensemble of daily one-step ahead forecasts for temperature, an autoregressive (AR) process is fitted to the forecast error series of each individual ensemble member. From this an AR modified one-step ahead forecast ensemble is generated, based on the actual nonmodified forecast and past observations and forecasts (training period). For each day from the verification period, the AR coefficients are newly estimated and the training period is shifted accordingly (rolling training period). For data from the European Centre for Medium-Range Weather Forecasts (ECMWF) ensemble, a predictive distribution is estimated from the AR modified ensemble and the verifying observation. The latter is combined with the predictive distribution derived from the well established local ensemble model output statistics (EMOS) method. This local AR-EMOS combination is shown to be well-calibrated, yielding favorable results with respect to the continuous ranked probability score (CRPS) as well as the Dawid-Sebastiani score (DSS). Moreover, the Diebold-Mariano test for equal predictive performance indicates a meaningful improvement of local AR-EMOS over EMOS. 132 Statistische Woche 2015 15.-18. September, Hamburg 158 Forecasting limit exceedances for environmental data using copulas Yarema Okhrin1 , Dominik Schneller Universität Augsburg, Germany, [email protected] SECTION: Statistics in Science and Technology The aim of this paper is to propose a model to forecast probabilities for PM10 limit exceedances. The “European directive 2008/50/EC” states a daily mean limit of 50µg/m3 as the value not to be exceeded on more than 35 days per calendar year. We use intraday data for the year 2012 from 21 measuring stations located in Bavaria. The objective is to infer about the daily exceedances of the limit using the information from the higher frequency data. The models contain daily and yearly seasonalities, an autoregressive part to capture the strong time persistence, dummies for day of the week effects, and a GARCH(1,1) term to model the conditional heteroscedasticity. The forecasts for the mean PM10 concentration and for the conditional volatility from both the daily and the half-hourly models are incorporated into logistic regression models to generate probability forecasts. We correct the bias of the logistic regression model rendered which arises due to rare true exeedances. The probability forecasts from the daily and half-hourly models are combined using the model averaging methods. 159 Dynamic mixtures of factor analyzers in environmental research Francesco Lagona1 University Roma Tre, Italy, [email protected] SECTION: DStatG/ISG I describe a new class of parsimonious models to perform time-varying clustering and dimensionality reduction in a time-series setting. The problem of similarity search in time-series data is addressed by specifying a hidden Markov model. Accordingly, clustering is not only based on similarities in the variable space, but also on similarities occurring in a temporal neighborhood, by relaxing the assumption that data points are mutually independent. Conditionally on each hidden state of the Markov chain, local dimensionality reduction is performed by imposing constraints on model parameters in a factor model framework. A family of eight different models is obtained. For the maximum likelihood estimation of the model parameters, an Alternating Expected Conditional Maximization (AECM) algorithm is outlined. These methods are illustrated by jointly analysing pollutant concentrations and atmospheric variables recorded at a monitoring station in Italy. The analysis focuses on variables evolution over time, the presence of different environmental regimes and (time-varying) relationships between variables. 160 Spatio-temporal statistical analysis of the carbon budget of the terrestrial ecosystem Patrick Vetter1 , Wolfgang Schmid, Reimund Schwarze Europa-Universität Viadrina, Frankfurt (Oder) 133 15.-18. September, Hamburg Statistische Woche 2015 SECTION: DStatG/ISG The Net Ecosystem Exchange describes the net carbon dioxide flux between an ecosystem and the atmosphere and is a key quantity in climate change studies and in political negotiations. This paper provides a spatio-temporal statistical framework, which is able to infer the Net Ecosystem Exchange from remotely-sensed carbon dioxide ground concentrations together with data on the Normalized Difference Vegetation Index, the Gross Primary Production and the Land cover classification. The model is based on spatial and temporal latent random effects, that act as space-time varying coefficients, which allows for a flexible modelling of the spatio-temporal auto and cross-correlation structure. The intra- and interannual variations of the Net Ecosystem Exchange are evaluated and dynamic maps are provided on a nearly global grid and in intervals of 16 days. 161 Does Self-Employment Really Raise Job Satisfaction? Adaptation and Anticipation Effects on Self-Employment and General Job Changes Dominik Hanglberger, Joachim Merz1 Leuphana Universität Lüneburg, Germany, [email protected] SECTION: Empirical Economics and Applied Economics Empirical analyses using cross-sectional and panel data found significantly higher levels of job satisfaction for the self-employed than for employees. We argue that by neglecting anticipation and adaptation effects estimates in previous studies might be misleading. To test this, we specify models accounting for anticipation and adaptation to self-employment and general job changes. In contrast to recent literature we find no specific long-term effect of self-employment on job satisfaction. Accounting for anticipation and adaptation to job changes in general, which includes changes between employee jobs, reduces the effect of self-employment on job satisfaction by two-thirds. When controlling for anticipation and adaptation to job changes, we find a positive anticipation effect of self-employment and a positive effect of self-employment on job satisfaction in the first years of self-employment. After three years, adaptation eliminates the higher satisfaction of being self-employed. According to our results, previous studies overestimate the positive long-term effects of self-employment on job satisfaction. 162 Markovkette als Fertilitätsmodell: Zum Fehlen des Alters der Mutter bei der ersten Geburt Benjamin Strohner1 , Rafael Weißbach Universität Rostock, Germany, [email protected] SECTION: Empirical Economics and Applied Economics Ziele: Die Geburt stellt ein demografisches Ereignis dar. Erkenntnisse über die Ursachen der Fertilität können mithilfe der Ereigniszeitanalyse (ETA) erlangt werden. Dazu gibt es eine reiche statistische und ökonomische Literatur zum Beispiel Heckman/Willis (1976) und Heckman/Walker (1989). In diesem 134 Statistische Woche 2015 15.-18. September, Hamburg Aufsatz soll die altersspezifische Struktur der Fertilität modelliert und aus Querschnittsdaten geschätzt werden, um Unterschiede zwischen erster und zweiter Geburt zu bestimmen. Likelihoodanalyse: Zur Abbildung des Fertilitätsgeschehens wird die Kinderzahl einer Frau (kein Kind, ein Kind, zwei Kinder) als zustandsdiskrete altersspezifische, also inhomogene, Markovkette modelliert. Die bedingten Übergangswahrscheinlichkeiten (Schwangerschaftswahrscheinlichkeiten) zwischen den Zuständen folgen im Alter einer (diskretisierten) asymmetrischen Dreiecksgestalt und können sich nach der Anzahl der vorhandenen Kinder unterscheiden. Die insgesamt entstehenden vier Parameter sollen mittels MaximumLikelihood geschätzt werden. Daten sind der Geburtendatensatz aus dem Doppeljahr 2009/2010 für Mecklenburg-Vorpommern kombiniert mit dem entsprechenden Bevölkerungsbestand. EM-Algorithmus: Die Gliederung des Bestandes der Frauen nach der Anzahl vorhandener Kinder ist allerdings unbekannt. Daher wird ein EM-Algorithmus genutzt, der diese Gliederung aus den Parameterschätzergebnissen iterativ bestimmt. Die Standardfehler werden mit einer dementsprechenden Methode von Oakes (1999) bestimmt. Ergebnisse: Der Vergleich der Parameter-Paare für erste und zweite Geburten sagt, dass es eine mit der vorhandenen Kinderzahl steigende Schwangerschaftswahrscheinlichkeit und ein mit der vorhandenen Kinderzahl sinkenden Altersschwerpunkt der Schwangerschaftswahrscheinlichkeit gibt. Diskussion: Der EM-Algorithmus stellt sich als nützlich bei der Verweildaueranalyse geschätzt aus Querschnittsdaten heraus, insbesondere weil die Loglikelihoodfunktion linear in der nicht bekannten Anzahl der Frauen mit einer bestimmten Anzahl vorhandener Kinder ist. Eine grundsätzliche Beschänkung der Analyse stellt die Stationaritätsnanahme dar. Die genutzten Vereinfachungen (keine Mehrlingsgeburten, nur Lebendgeburten, Betrachtung nur bis zum zweiten Kind und keine Regressoren) schränken das Konzept nicht ein, da sie in Erweiterungen leicht zu berücksichtigen sind. 163 Unemployment Dynamics in the US and Euro Area: Do Uncertainty Shocks Matter? Katharina Glass1 , Aleksei Netšunajev Universität Hamburg, Germany, [email protected] SECTION: Empirical Economics and Applied Economics In this paper we investigate transmission and spillovers of local and foreign economic policy uncertainty shocks to unemployment in the two largest economic regions in the world - the United States (US) and the Euro area (EA). For this purpose we deploy Bayesian Markov-switching structural vector autoregressive (MS-SVAR) model identified via heteroskedasticity. In addition to local effects we find foreign uncertainty shocks to influence the Euro area but not the US unemployment. We document weaker spillovers of both local and foreign uncertainty shocks in the more volatile times. 164 Recent developments in calibration methods for survey statistics 135 15.-18. September, Hamburg Statistische Woche 2015 Risto Lehtonen1 , Finland, [email protected] SECTION: Methodology of Statistical Surveys In the presentation, calibration methods are discussed for the estimation of statistics for population subgroups or domains (small or large). The methods include model-free or linear calibration and model calibration, and certain new model calibration methods including semi-direct and semi-indirect model calibration. I will introduce a new variant of model calibration called ”hybrid” calibration. This method aims at combining some favorable properties of model calibration (accuracy improvement; coverage of models from the family of generalized linear mixed models) and model-free calibration (coherence property of estimates with published statistics). Statistical properties (design bias and accuracy) of the methods are assessed by design-based simulation experiments using artificially generated population and real unit-level register data maintained by Statistics Finland. Applicability of the methods for practical purposes is discussed. 165 Applications of Mixed Models Methodology for Small Area Estimation in Mexico Timo Schmid1 , Nikos Tzavidis, Natalia Rojas-Perilla Freie Universität Berlin, Germany, [email protected] SECTION: Methodology of Statistical Surveys The point of departure for this work is the request by the Government of Mexico for methodologies that provide reliable estimates of a wide range of deprivation indicators for every municipality in the country. The presentation will start by describing the specificities of this project and by defining the set of indicators whose publication is requested by law in Mexico. Income-based indicators include the incidence of poverty and the poverty gap, inequality indicators such as the Gini coefficient and quantiles of the income distribution. Moreover, estimates of multidimensional deprivation are also requested. Multidimensional deprivation is jointly defined by income deprivation and deprivation in multiple social dimensions for example, health, education and social security. It is clear that for adequately responding to the breadth of this request, researchers in small area estimation must utilise a range of available and newly developed methodologies. For estimating income-based indicators we consider the use of methodologies based on mixed models. In addition, we test a methodology, currently under development, that aims at explicitly estimating the distribution function of the outcome. This methodology is based on the use of a quantile nested error regression (mixed) model under the working assumption of an Asymmetric Laplace Distribution for the unit level error. One approach for estimating the measure of multidimensional deprivation Mexico is interested in is to consider this as a multinomial outcome. Provided that there is sufficient time, we will present results from using generalised linear mixed models methodology for this purpose. The alternative methodologies will be compared by using real survey and Census data. Some diagnostic measures for externally evaluating the derived estimates will be considered. 136 Statistische Woche 2015 15.-18. September, Hamburg 166 Estimation within the New Integrated System of Household Surveys in Germany Saeideh Kamgar1 , Florian Meinfelder, Ralf Münnich Allameh Tabataba’i University of IRAN, Germany, [email protected] SECTION: Methodology of Statistical Surveys The new survey design of the German household surveys will be based on the Microcensus (MZ) and conducted as an integrated household survey. Some additional surveys, like the LFS, SILC, and others will be drawn as subsamples. In order to reduce the response burden, the core set of questions from the MZ will be limited. Assuming that some questions from the core questionnaire may be substituted, the design can be considered as a similar approach to the split questionnaire design. However, the strategy to adopt split questionnaire design in this new survey is the important issue in this context. Specifically, the main question is how to identify items of MZ/LFS and SILC surveys to be included in core part in order to improve the precision of estimators based on the subsamples data. In this study, our focus is on investigation methods to identify an adequate (optimal) design of the core questionnaire assigned to the common MZ random sample in connection to the LFS and SILC subsamples. The aim is to identify a small set of questions for the core questionnaire, which furnishes efficient estimates on global and local level. The estimators of interest cover classical small area estimators as well as poverty measures and classical table estimates. The methodology will be examined applying a Monte Carlo study on a synthetic but realistic population. The research is conducted within the research project Research Innovation for Official and Survey Statistics (RIFOSS), which is financially supported by the German Federal Statistical Office. The first author is supported by Allameh Tabataba’i University of IRAN, and Trier University. 167 Some Extensions of Regression Based Cointegration Analysis Martin Wagner1 Technische Universität Dortmund, Germany, [email protected] SECTION: Statistical Theory and Methodology The analysis of cointegrating relationships in a regression framework is typically carried out using modified least squares estimators that employ corrections for the effects of endogeneity and error serial correlation in order to obtain limiting distributions that allow for asymptotic standard inference. Several such estimation procedures are available in the literature. In the talk we discuss extensions of such approaches along two dimensions. On the one hand we discuss the applicability of modified least squares estimators in cointegrating regressions that are linear in parameters, but nonlinear in I(1) variables. Typical examples of such relationships are (environmental) Kuznets curves or translog cost or production functions. Especially the latter poses new challenges for estimation and inference using when trying to use e.g. the so-called fully modified OLS estimation principle. On the other hand we discuss estimation when it is not the functional form that is allowed to be more general, but the dynamic properties of the variables. In particular we discuss cointegration analysis based not on summed up i.e. integrated sta- 137 15.-18. September, Hamburg Statistische Woche 2015 tionary but integrated locally stationary processes. We consider localized fully modified OLS estimation for this case. The talk gives a survey of research undertaken in Dortmund as well as in cooperation with Robert M. de Jong, Mathias Vetter and Timothy J. Vogelsang. 168 Testing for smooth transition cointegration with integrated or trending transition variable Oliver Stypka1 , Martin Wagner Technische Universität Dortmund, Germany, [email protected] SECTION: Statistical Theory and Methodology A test is developed for the null hypothesis of linear cointegration against the alternative of smooth transition cointegration when the transition variable is either an integrated or deterministically trending variable. The test statistics are based on suitably modified FM-OLS or IM-OLS parameter estimators of the usual Taylor approximations to the smooth transition regression function. Note that if the Taylor approximation can be considered to be the true transition function rather than an approximation, we hereby provide consistent parameter estimators with a mean zero Gaussian mixture limiting distribution, which may be of interest in itself. For the IM-OLS based test we also discuss fixed-b inference. The properties of the tests are evaluated with a simulation study. 169 IM-OLS Estimation and Fixed-b Inference for Seasonally Cointegrating Regressions Rafael Kawka1 , Oliver Stypka, Martin Wagner Technische Universität Dortmund, Germany, [email protected] SECTION: Statistical Theory and Methodology Many economic time series exhibit persistent seasonal patterns. One approach to model this phenomenon is given by models including seasonal unit roots and, if several time series are considered jointly, seasonal cointegration. For quarterly time series, e.g., unit roots may be present at frequencies π/2 and π, in addition to the “standard unit root” at frequency zero. Gregoir (2010) has extended the fully modified OLS estimator of Phillips and Hansen (1990) from the cointegrating regression to the seasonally cointegrating regression case. In this paper, we have a similar agenda, in that we undertake the corresponding extension for the IM-OLS estimator of Vogelsang and Wagner (2014). The benefit of the IM-OLS estimator is that it forms the basis not only for asymptotic standard inference but also allows for fixed-b inference. The paper furthermore proposes a test for seasonal cointegration at all unit root frequencies. Note here that the cointegrating spaces in general differ across frequencies and have to be estimated separately for each frequency. The theoretical analysis is complemented by a simulation study comparing our approach with, of course, the FM-OLS approach of Gregoir (2010), but also other well-known estimators and tests for seasonal cointegration. References: 138 Statistische Woche 2015 15.-18. September, Hamburg Gregoir, S., 2010. Fully Modified Estimation of Seasonally Cointegrated Processes. Econometric Theory 26, 1491-1528. Phillips, P.C.B., Hansen, B.E., 1990. Statistical inference in instrumental variables regression with I(1) processes. Rev. Econom. Stud. 57, 99-125. Vogelsang, T.J., Wagner, M., 2014. Integrated modified OLS estimation and fixed-b inference for cointegrating regressions. Journal of Econometrics 178, 741-760. 170 Recent advances in multivariate time series with structural breaks Idris Eckley1 Lancaster University, United Kingdom, [email protected] SECTION: Time Series with Structural Breaks In recent years there has been a surge of interest in the development of new, computationally efficient methods for detecting structural breaks in time series. Much of this work has focussed on the analysis of univariate time series, with contributions in this area having an impact in diverse disciplines: from ocean engineering to music analysis. With the increased use of low-cost, multivariate sensors within industrial processes, there is a growing need to be able to efficiently identify changes in structure within multivariate time series. In moving to this more complex setting, the problem of detecting structural breaks becomes more subtle. In this talk we will outline some recent developments in this area motivated by some ongoing work with industrial collaborators. 171 Minimax optimal detection of structure for multivariate data Jean-Marc Freyermuth1 , Florent Autin, Gerda Claeskens, Christophe Pouet University of Cambridge, United Kingdom, [email protected] SECTION: Time Series with Structural Breaks We consider the problem of minimax hypothesis testing in the multivariate Gaussian White Noise model. It is often reasonnable to assume that the underlying function has anisotropic smoothness and some general ’structure’ (such as additivity). Using the relation between the Sobol decomposition of a multivariate function and the geometry of the hyperbolic wavelet basis we construct test statistics for detecting the presence of such structure. Hyperbolic wavelet bases have been proven useful to construct powerful procedures for estimating functions with anisotropic smoothness Neumann (2000), Autin et al. (2013) and Autin et al. (2014). In this talk we will emphasize that they furnish minimax optimal (or near-optimal) testing procedures and we will illustrate their use in a time series application inspired from von Sachs and Neumann (2000) for testing the second order stationarity of a time series. This is a joint work with Florent Autin, Gerda Claeskens and Christophe Pouet. 172 A test for change in rank-correlation of multivariate time series 139 15.-18. September, Hamburg Statistische Woche 2015 Alexander Dürre1 , Roland Fried, Daniel Vogel TU Dortmund, Germany, [email protected] SECTION: Time Series with Structural Breaks We propose a non-parametric test for a change in the cross-sectional dependence structure of a multivariate time series. This cusum type test is based on Kendall’s Tau matrix which consist of pairwise rank-correlation estimations. Kendall’s Tau is known to have a high efficiency under normal distributions and good robustness properties. This makes it a suitable choice for processes which might be corrupted or have heavy tails. We derive the asymptotic distribution under the null hypothesis of no change under very mild assumptions without any moment conditions and allowing for short range dependence. Simulations compare the power of the test against a competitor based on the empirical correlation matrix under different scenarios. The test is illustrated at an energy market data example. 173 TESTING FOR A CHANGE IN THE CORRELATION OF TIME SERIES Christoph Heuser1 Universität zu Köln, Germany, [email protected] SECTION: Time Series with Structural Breaks In this talk, we consider a two dimensional stochastic process {(Xi , Yi )}i∈N satisfying some near-epoch dependence and moment assumptions, and investigate its correlation coefficients {ρi }i∈N . We present an a-posteriori and a sequential test procedure for detecting possible changes in the correlation coefficients. More precisely, we want to test the null hypothesis H0 : ρ0 = ρi , for i = 1, . . . , n, with some unknown ρ0 ∈ (0, 1), against (1) H1 : ρ1 = . . . = ρk? 6= ρk? +1 = . . . = ρn in the a-posteriori case, or against (2) H1 : ρ1 = . . . = ρn = . . . = ρn+k? 6= ρn+k? +1 = . . . in the sequential case, where k ? is an unknown change point. The test statistics will be based on weighted CUSUM detectors and necessitate the estimation of the long-run variance (LRV). In particular, we investigate two types of LRV estimators - a Bartlett-type kernel estimator and a modification thereof wich takes the change into account. We analyze the limit behavior of the LRV estimators and of the test statistics for n → ∞ under the null as well as under both alternative hypotheses. Finally, we present some simulation results to illustrate the finite sample behavior of our procedures. 140 Statistische Woche 2015 15.-18. September, Hamburg 174 Functional data depth: diversity of aims Alicia Nieto-Reyes1 , Heather Battey Universidad de Cantabria, Spain, [email protected] SECTION: Data depth and classification Measures of central tendency (depth functions) are an effective way of distilling the information contained in a probability law. Their ability to reveal diverse features such as spread, shape and symmetry has made them particularly valuable for the construction of novel classification procedures. Since it is particularly difficult to decode the complex information encapsulated in distributions on function space, the availability of a universally accepted depth function construction would mark a fundamental contribution to both the theory and the future methodological development of statistics. In recent years, much effort has been expended on attempts to construct depth functions for functional data. In many cases, these constructions fail to deliver the totality of properties essential for defining a valid depth function according to our definition of depth. The properties that constitute our definition not only provide a sophisticated extension of those defining the multivariate depth, recognising topological features such as continuity, contiguity and smoothness, but also implicitly address several common or inherent difficulties associated with functional data. Amongst our six depth defining properties is one that tackles the delicate challenge of inherent partial observability of functional data, providing a minimal guarantee on the performance of the empirical depth beyond the idealised and practically infeasible case of full observability. As an incidental product of the same property, our definition of functional depth automatically yields a robust estimator of the population depth. Robustness is a property that is commonly ascribed to empirical depth functions despite the absence of a formal guarantee from the multivariate definition, which was set forth in Zuo and Serfling (2000) in the Annals of Statistics. 175 Distances between functional samples based on depth measures Rosa E. Lillo1 , Ramón Flores, Juan Romo Universidad Carlos III de Madrid, Spain, [email protected] SECTION: Data depth and classification In the context of functional data analysis, we construct four different statistics based on some wellknown depth measures, in order to measure distance between two samples. As an application, we propose a new method to test the homogeneity of two samples of functions.A simulation study is performed to check the efficiency of the tests when confronted with shape and magnitude perturbation. Finally, we apply these tools to measure the homogeneity in some samples of real data. 176 Multivariate Functional Outlier Detection Mia Hubert, Peter Rousseeuw, Pieter Segaert1 141 15.-18. September, Hamburg Statistische Woche 2015 KU Leuven, Belgium, [email protected] SECTION: Data depth and classification Functional data are occurring more and more often in practice, and various statistical techniques have been developed to analyze them. We consider multivariate functional data, where for each curve and each time point a p-dimensional vector of measurements is observed. For functional data the study of outlier detection has started only recently, and was mostly limited to univariate curves (p = 1). In this talk we set up a taxonomy of functional outliers, and construct new numerical and graphical techniques for the detection of outliers in multivariate functional data, with univariate curves included as a special case. Our tools include statistical depth functions and distance measures derived from them. The methods we study are affine invariant in p-dimensional space, and do not assume elliptical or any other symmetry. 177 On the use of Radon-Nikodym derivatives and reproducing kernels in functional classification José R. Berrendero, Antonio Cuevas1 , José L. Torrecilla Universidad Autónoma de Madrid, Spain, [email protected] SECTION: Data depth and classification The Hájek-Feldman dichotomy establishes that two Gaussian measures are either mutually absolutely continuous with respect to each other (and hence there is a Radon-Nikodym (RN) density for each measure with respect to the other one) or mutually singular. Unlike the case of finite dimensional Gaussian measures, there are non-trivial examples of both situations when dealing with Gaussian stochastic processes. In this talk we will present: (a) Explicit expressions for the optimal (Bayes) rule and the minimal classification error probability in several relevant problems of supervised binary classification of mutually absolutely continuous Gaussian processes. The results rely on some classical results in the theory of Reproducing Kernel Hilbert Spaces (RKHS). (b) A full theoretical interpretation, in terms of mutual singularity, for the “near perfect classification” phenomenon, described by Delaigle and Hall (2012, JRSS). We show that the asymptotically optimal rule proposed by these authors can be identified with the sequence of optimal rules for an approximating sequence of classification problems in the absolutely continuous case. (c) A new model-based method for variable selection in binary classification problems, which arises in a very natural way from the explicit knowledge of the RN-derivatives and the underlying RKHS structure. This new procedure is baked by an extensive simulation study. (d) Some new ideas to define density-based notions of depth, defined in terms of RN derivatives are briefly outlined. The new results presented in this talk are included in joint unpublished works with José R. Berrendero and José L. Torrecilla. 142 Statistische Woche 2015 15.-18. September, Hamburg 178 Bias Corrections for Moment Estimators in Poisson INAR(1) and INARCH(1) Processes Christian Weiß1 , Sebastian Schweer Helmut-Schmidt-Universität Hamburg, Germany, [email protected] SECTION: Computational Statistics and Data Analysis Moment estimators applied to time series data often lead to biased parameter estimates, which is particularly problematic if the given time series is short. For continuous-valued time series, a lot of work has been done in this area. One of the earliest accounts in these regards is the work by Kendall (1954), who derived the asymptotic mean of the moment estimator for the autoregressive parameter of a Gaussian AR(1) process. For count data time series, there exist two equally popular integer-valued counterparts to the AR(1) model, the so-called Poisson INAR(1) model on the one hand, and the Poisson INARCH(1) model on the other hand. As of yet, the topic of bias correction has received only little attention in this area. The presentation provides a comprehensive analysis of asymptotic distributions and bias corrections of common moment estimators within the Poisson INAR(1) and INARCH(1) model. The analysis is based on two central limit theorems for these models. For two common sets of moment estimators in both models, the asymptotic distributions are derived, together with explicit approximations for the bias and standard deviation of each of these estimators. Based on these results, bias corrected variants of the estimators are suggested and applied within examples. A simulation study highlights the finite-sample performance of the derived approximations for bias and standard deviation. References: Bourguignon, M., Vasconcellos, K.L.P., 2014. Improved estimation for Poisson INAR(1) models. Journal of Statistical Computation and Simulation, to appear. Ferland, R., Latour, A., Oraichi, D., 2006. Integer-valued GARCH processes. Journal of Time Series Analysis 27(6), 923-42. Kendall, M.G., 1954. Note on bias in the estimation of autocorrelation. Biometrika 41(3-4), 403-404. McKenzie, E., 1985. Some simple models for discrete variate time series. Water Resources Bulletin 21(4), 645-650. Schweer, S., Weiß, C.H., 2014. Compound Poisson INAR(1) processes: stochastic properties and testing for overdispersion. Computational Statistics and Data Analysis 77, 267-284. Weiß, C.H., Schweer, S., 2015. Detecting overdispersion in INARCH(1) processes. Statistica Neerlandica, to appear. 179 Self-exciting threshold binomial INARCH(1) process Tobias Möller1 Helmut-Schmidt-Universität, Germany, [email protected] 143 15.-18. September, Hamburg Statistische Woche 2015 SECTION: Computational Statistics and Data Analysis Self-exciting threshold models as proposed by Tong and Lim (1980) have a long tradition in application and research. Recent developments transferred these models to integer-valued time series. But only few models have been proposed and models for integer-valued time series with a finite range have not attracted much attention so far (Möller/Weiß (2015)). The presentation will introduce the self-exciting threshold binomial INARCH(1) model, based on the binomial INARCH(1) model by Weiß and Pollett (2014), to fill this gap. The process will be considered for stationary solution, marginal properties (moments, shape, ...) as well as autocorrelation structure. A number of special instances are discussed, also including a version for zero-inflated counts, where zeros occur in long runs. Asymptotic properties as well as the finite sample behavior of estimators are considered. A real data example about public drunkenness in Pittsburgh will show the applicability of the new model. References: Möller, Tobias, and Christian H. Weiß. ”Threshold Models for Integer-Valued Time Series with Infinite or Finite Range.” Stochastic Models, Statistics and Their Applications. Springer International Publishing, 2015. 327-334. Monteiro, Magda, Manuel G. Scotto, and Isabel Pereira. ”Integer-valued self-exciting threshold autoregressive processes.” Communications in Statistics-Theory and Methods 41.15 (2012): 27172737. Tong, Howell, and Keng S. Lim. ”Threshold autoregression, limit cycles and cyclical data.” Journal of the Royal Statistical Society. Series B (Methodological) (1980): 245-292. Wang, Chao, et al. ”Self-excited threshold poisson autoregression.” Journal of the American Statistical Association 109.506 (2014): 777-787. Weiß, Christian H., and Philip K. Pollett. ”Binomial Autoregressive Processes with DensityDependent Thinning.” Journal of Time Series Analysis 35.2 (2014): 115-132. 180 Monitoring of count time series following generalized linear models Tobias Liboschik1 , Roland Fried, Konstantinos Fokianos Technische Universität Dortmund, Germany, [email protected] SECTION: Computational Statistics and Data Analysis Real-time detection of structural changes in count time series is of interest in various applications. For example in public health, surveillance of infectious diseases aims at recognizing outbreaks of epidemics with only short time delays in order to take adequate action promptly. An appealing and flexible class to model such data are count time series following generalized linear models, which capture the typical characteristics of the data like serial dependence and seasonality. Methods for fitting and analyzing such models are provided in our package tscount for the free statistical software environment R (see http://tscount.r-forge.r-project.org). Based on historical data, we design control charts which properly take into account the estimation uncertainty by applying a Monte Carlo simulation. Our study compares different statistics for control charts, for example transformed observations, different types of residuals and some 144 Statistische Woche 2015 15.-18. September, Hamburg likelihood-based measures. Considering situations where outliers might occur in the historical data, we investigate how robust model fitting can ensure a more reliable performance of the control chart. 181 Likelihood based inference and prediction in spatio-temporal panel count models for urban crimes Jan Vogler1 , Roman Liesenfeld, Jean-Francois Richard Universität Köln, Germany, [email protected] SECTION: Computational Statistics and Data Analysis We develop a panel data count model combined with a latent Gaussian spatio-temporal heterogenous state process to analyze monthly severe crimes at the census tract level in Pittsburgh, Pennsylvania. Our data set combines Uniform Crime Reporting data with socio-economic data from the 2000 census. The likelihood of the model is accurately estimated by adapting recently developed efficient importance sampling techniques applicable to high-dimensional spatial models with sparse precision matrices. Our estimation results confirm socio-economic explanations for crime and, foremost, the broken-windows hypothesis, whereby less severe crimes in a region is a leading indicator for severe crimes. In addition to ML parameter estimates, we compute several other statistics of interest for law enforcement such as elasticities (idiosyncratic, total, short-term as well as long-term) of severe crimes w.r.t. less severe crimes, one-month-ahead out-of-sample forecasts, predictive cumulative ! distribution functions and validation test statistics based on these cdf’s. 182 Combining country-specific forecasts when forecasting Euro area macroeconomic aggregates Jing Zeng1 University of Konstanz, Germany, [email protected] SECTION: Empirical Economics and Applied Economics This paper investigates whether using different combination weights instead of the usual aggregation weights can help to provide more accurate forecasts. In forecasting aggregate variables, one can forecast the disaggregate variables at first. Then all the disaggregate forecasts are combined. The aggregation weights which are used to construct the aggregates are usually considered as combination weights. We examine the performance of alternative combination weights such as equal weights, the least squares (LS) estimators of the weights, the combination method recently proposed by Hyndman et al. (2011) and the weights suggested by the shrinkage method used in Stock and Watson (2004) to combine the disaggregate forecasts. The results indicate that some Euro area aggregate variables like real GDP and GDP deflator can be forecasted more precisely by using the LS weights and the weights estimated by the shrinkage method, because these methods are more flexible in adapting to data in periods of financial crisis and can take large differences in inflation rates of member countries into account. For forecasting the consumer price index and the long-term 145 15.-18. September, Hamburg Statistische Woche 2015 interest rate, these weights can also provide more accurate forecasts in some cases. Furthermore, combining only forecasts of the three largest European countries helps to improve the forecasting performance, mainly because of their economic importance in the Euro area. The last finding is that the persistence of the individual data seems to play an important role for the relative performance of the combination. 183 A New Approach to Estimation of the R&D-Innovation-Productivity Relationship Christoffer Baum, Hans Lööf, Pardis Nabavi, Andreas Stephan1 Jönköping International Business School, Sweden, [email protected] SECTION: Empirical Economics and Applied Economics We evaluate a Generalized Structural Equation Model (GSEM) approach to the estimation of the relationship between R&D, innovation and productivity that focuses on the potentially crucial heterogeneity across technology levels and sectors. We consider the potential for closing the model by allowing firm performance to feed back to the level of R&D activity. The model accounts for selectivity and handles endogeneity by including common, unobserved components into the equations for different variables in different industrial sectors and the model allows for the same unobserved component across equations. Employing a panel of Swedish firms observed in three consecutive Community Innovation Surveys to estimate complex causal relationships with multiple pathways, our maximum likelihood estimates show great consistency regarding the key variables across the economy and a scattered pattern in their determinants. 184 The Measurement of Internet Availability and Quality in the Context of the Discussion on Digital Divide Jochen Lüdering1 Universtät Gießen, Germany, [email protected] SECTION: Empirical Economics and Applied Economics This paper discusses measures of Internet quality and availability used and usable in the analysis of the so called digital divide. The usage of the share of Internet users in the population – widely used in economic analysis – can easily be misleading in this debate. Based on this measure one might get the idea that the digital divide is narrowing, as some industrialized countries are already close to a share of 100 I argue that one should focus more on the study of Internet quality and quantity provided in a demand and supply model of infrastructure. To this end, I introduce a new latency-based measure to judge the quality of Internet, based on a novel data set, and compare it to related measures. The results indicate that it may indeed be useful to measure Internet quality across countries. In 146 Statistische Woche 2015 15.-18. September, Hamburg particular the availability of the indicator for 247 countries and semi-autonomous regions makes it an interesting tool for policy analysis. The possibility to examine the effects of different determinants on individual quantiles is particularly interesting. ICT investment appear to be stronger correlated with lower latency in the upper part of the distribution, while the effect on the lower part is less pronounced. In addition we find that population density is an important determinant of latency – an argument which is brought up in the theoretical discussion on ICT investment but – to my knowledge – not found empirically to date. 185 Imputation of the Working Time Info for the Employment Register Data Johannes Ludsteck1 , Ulrich Thomsen IAB Nürnberg, Germany, [email protected] SECTION: Empirical Economics and Applied Economics The share of missing information on the job activity profile (Tätigkeitsschlüsssel) in the German Employment Register data (Beschäftigtenstatistik) increased temporarily to roughly 25% after a change of the data collection method in 2011. As a by-product, the change of the data collection method revealed systematic reporting errors (employers miss to update the working time info after changes of the working time in continuing jobs). We test simple hypotheses on the causes of the reporting errors, assess the consequences of these errors on wage analyses and develop a simple model to impute the missings. To this aim, we compare the predictive power of Logit, Probit, linear probability models, classification trees and nonparametric probit models. 186 Wer ist arbeitslos? Warum und wie viele? Thomas Weißbrodt1 Bundesagentur für Arbeit, Germany, [email protected] SECTION: Labour Market and Social Security Wer ist arbeitslos? Warum und wie viele? Im allgemeinen Sprachgebrauch werden die Begriffe SGB II“, SGB III“, Hartz IV“, Arbeitslosigkeit“, Langzeitarbeitslosigkeit“ häufig vermengt. ” ” ” ” ” Oft ist unbekannt, dass viele Personen im Leistungsbezug - sei es Arbeitslosengeld oder Arbeitslosengeld II - nicht per se arbeitslos sind. Und nicht alle Langzeitarbeitslosen sind im Rechtskreis SGB II zu finden. Aber auch nicht alle Arbeitslosen im SGB II sind automatisch langzeitarbeitslos. Da diese Begriffe und die entsprechenden statistischen Größen Grundlagen für differenzierte Analysen sind, soll der Beitrag Grundsätzliches zur Messung von Arbeitslosigkeit und Leistungsbezug behandeln. Die zentralen Fragen lauten: Welche Schnittmenge von Arbeitslosen und erwerbsfähigen Leistungsberechtigten gibt es? Warum sind nicht alle Personen, die potenziell eine Beschäftigung aufnehmen können, arbeitslos? Welche regionalen Unterschiede gibt es? Wie viele Personen in einer 147 15.-18. September, Hamburg Statistische Woche 2015 ungeförderten Beschäftigung erzielen ein Einkommen, das zu niedrig zur Sicherung des Lebensunterhaltes ist? Wie lange dauert Arbeitslosigkeit? 187 Langzeitarbeitslosigkeit - Begriff, Messung und wichtige Befunde Michael Hartmann1 Bundesagentur für Arbeit, Germany, [email protected] SECTION: Labour Market and Social Security Langzeitarbeitslosigkeit ist ein wichtiges arbeitsmarkt- und sozialpolitisches Problem. Im Jahr 2014 waren jahresdurchschnittlich 1,1 Mio Menschen länger als ein Jahr arbeitslos gemeldet. Das waren 37 Prozent aller registrierten Arbeitslosen. Wie die Arbeitslosigkeit insgesamt so ist auch die Langzeitarbeitslosigkeit kein fester Block, der sich nicht verändert. Auch bei einer konstanten Bestandszahl der Langzeitarbeitslosigkeit werden viele Personen neu langzeitarbeitslos, während viele (andere) Personen ihre Langzeitarbeitslosigkeit beenden. Was sind die Risikofaktoren für den Übertritt in die Langzeitarbeitslosigkeit? Wie groß ist die Chance durch Beschäftigungsaufnahme die Langzeitarbeitslosigkeit zu beenden und wie verändert sie sich mit der Dauer der Arbeitslosigkeit? Der Vortrag erläutert die Messung der Langzeitarbeitslosigkeit und beschreibt den Prozess der Langzeitarbeitslosigkeit im Stock-Flow-Modell. Im Vortrag werden statistische Befunde zu Niveau, Struktur und Entwicklung der Langzeitarbeitslosigkeit dargestellt. 188 Die Erfassung von Erwerbstätigkeit durch unterschiedliche Erhebungsmethoden Anja Crößmann1 , Matthias Eisenmenger Statistisches Bundesamt, Germany, [email protected] SECTION: Labour Market and Social Security Die Berichterstattung zum Arbeitsmarkt bedient sich unterschiedlicher Statistiken, um ihre vielseitigen Themen möglichst umfassend abbilden zu können. Zur Darstellung der Erwerbstätigkeit werden verschiedene Datenquellen mit unterschiedlichen Erfassungsmethoden verwendet, die entsprechende Auswirkungen auf die Ergebnisse haben. Abweichungen in den Statistiken sind vor allem auf Unterschiede der eingesetzten Methoden und Verfahren zurückzuführen, basieren aber in Teilen auch auf nicht vollständig übereinstimmenden Definitionen. So weichen beispielsweise Angaben aus Befragungen häufig von denen ab, die durch die Auswertung amtlicher Register ermittelt werden. Ein wesentliches Charakteristikum des Zensus 2011 war die Zusammenführung diverser Datenquellen. Dabei wurden auf bestehende Angaben in Verwaltungsregistern zurückgegriffen und diese in bestimmten Bereichen durch Vollerhebungen und Stichprobenbefragungen ergänzt. Diese neuartige Vorgehensweise im Zensus 2011 bietet die Möglichkeit, abweichende Angaben aus unterschiedlichen Datenquellen zu identifizieren und genauer zu untersuchen. Zur Erfassung der Erwerbstätigkeit im Rahmen des Zensus 2011 wurden Angaben aus der Haushaltsbefragung mit den Daten aus dem 148 Statistische Woche 2015 15.-18. September, Hamburg Erwerbsregister der Bundesagentur für Arbeit sowie dem Register der öffentlichen Arbeitgeber zusammengeführt. Bei einem Vergleich der einzelnen Ergebnisse lassen sich bestimmte Teilgruppen auf dem Arbeitsmarkt identifizieren, die mit abweichenden Angaben zu ihrer Beschäftigung in den Quellen erfasst wurden. Ein Beispiel hierfür sind die ausschließlich geringfügig Beschäftigten, deren Erfassung sich in Haushaltserhebungen erfahrungsgemäß schwierig gestaltet. Über diese – bereits bekannte Erfassungsproblematik – hinaus lassen sich weitere Gruppen identifizieren, zu denen unterschiedliche Angaben in den Datenquellen vorliegen. Diese Gruppen werden analysiert und ihre Struktur anhand verschiedener Merkmale beschrieben. Der Vortrag diskutiert darüber hinaus Erkenntnisse über die Besonderheiten verschiedener Erhebungsmethoden, deren möglichen Einfluss auf die Abbildung der Erwerbstätigkeit. 189 Warum im Zensus die Ergebnisse der Stichprobenmethode keine Benachteiligung der großen Gemeinden darstellen: Eine Detektivarbeit. Ulrich Rendtel1 FU Berlin, Germany, [email protected] SECTION: Methodology of Statistical Surveys Der Vortrag setzt sich mit dem empirischen Befund auseinander, dass die unterschiedliche Behandlung der kleinen und der grossen Gemeinden beim Zensus 2011 zu unterschiedlich hohen Differenzen zwischen Bevölkerungsfortschreibung und Zensus führt. Dabei weisen die grossen Gemeinden mit mehr als 10000 Einwohnern eine im Schnitt um 1.5 Prozentpunkte niedrigere Zensuszahl als in der Bevölkerungsfortschreibung aus. Dieser aus der letzten Statistischen Woche gezeigte Befund von Christensen et al. (2014) gezeigte Befund wird mit einem erweiterten semiparametrischen Analyseinstrumentarium für jedes einzelne Bundesland separat re-analysiert. Hierbei zeigt sich in drei Bundesländern kein derartiger Methodeneffekt des ab 10000 Einwohnern benutzten Stichprobenverfahrens. Es wird die Frage untersucht, warum ein scheinbar so allgemeiner Methodeneffekt sich in drei Bundesländern nicht zeigt. Es zeigt sich, dass plausible Argumente darauf hinweisen, dass die Einwohnermelderegister in diesen drei Bundesländern besser geführt werden als in den anderen Bundesländern. In dieser Sichtweise deckt das Stichprobenverfahren systematische Mängel der Einwohnermelderegister auf, während das formal kaum spezifizierte Klärungverfahren, das bei den kleinen Gemeinden angewendet wird, diesen Mangel nicht aufdeckt. In diesem Sinne können sich die grossen Gemeinden nicht über eine Benachteiligung bei der Schätzung ihrer amtlichen Einwohnerzahl beklagen, da der gezeigte Effekt einem unpräzisen Meldewesen zuzuschreiben ist. allerdings kommen die kleinen Gemeinden bei dem ”Klärungsverfahren” im Schnitt zu gut weg. Schließlich wird noch überprüft, ob es bei der letzten Volkszählung 1987, bei der alle Haushalte mit einer 100 Prozent Stichprobe gezählt wurden, eine Genauigkeitsschwelle an der 10000-er Marke gab. 190 Sample Size Determination in Business Tendency Surveys Christian Seiler1 , Klaus Wohlrabe 149 15.-18. September, Hamburg Statistische Woche 2015 ifo Institut-Leibniz Institut für Wirtschaftsforschung, Germany, [email protected] SECTION: Methodology of Statistical Surveys Business tendency surveys are a widely used tool to trace the current state of the economy. The Purchasing Manager Index for various countries or the Ifo Business Climate Index in Germany are two of the most important and influential examples in business cycle monitoring. For each survey indicator the question of its reliability arises. In addition, the creation, organisation and maintainance of business survey panels are costly. This paper analyses the connection between sample size and the IC ratio, an important measure to assess the reliability of business tendency indicators. We perform a simulation study for different economic time series and filter methods. Our results show that the optimal sample size strongly depends on the investigated time series, in particular highly oscillating series can be measured more reliable with a smaller number of observations. 191 Analyse der Umfragewerte vor Bundestags- und Europawahlen Christian (1) Hoops, Wolfgang (2) Donsbach, Tobias (1) Michael Ipsos Public Affairs, Germany, [email protected] SECTION: Methodology of Statistical Surveys Bisher hat nur eine unzureichende systematische Auswertung von Wahlprognosen stattgefunden. Unser Beitrag stellt den Prognose-Almanach der deutschen Wahlforschung vor, der diese Lücke schließt und künftig zeitnah nach einer Bundestags- oder Europawahl aktualisiert wird. Aktuelle Analysen zeigen, dass in Deutschland keine Partei ungewöhnlich oft unter- oder überschätzt wurde. Die meisten Fehlprognosen gab es bei der FDP, vermutlich aufgrund kurzzeitiger taktischer Wahlentscheidungen der Wähler. Nur der SPD sprach man vor den Wahlen zum Europäischen Parlament regelmäßig zu viele Stimmenanteile zu sowie den sonstigen Parteien zu wenig. Möglicherweise sind methodische Fehler hierfür verantwortlich. Der Vortrag gibt zudem eine Einführung in die Vorgehensweisen, wie in der Praxis Wahlprognosen erstellt werden. Umfrageinstitute verwenden hierfür Projektionsfunktionen, die zahlreiche Parameter enthalten und streng geheim sind. Durch Anwendung dieser Funktionen ist die Angabe von Stichprobenfehlern aus statistischer Sicht eigentlich unzulässig. Zur Beurteilung der Prognosegüte verwenden wir den Mean Absolute Percentage Error (MAPE). Eine Simulation zeigt, dass dieses relative Prognosemaß häufiger korrekt klassifiziert als andere absolute Maße. 192 Parteien im politischen Spektrum: Statistische Modellierung und Schätzung der Positionen aus Textdaten - Deutsche Bundestagswahlen 1990 – 2013 Carsten Jentsch1 , Eun Ryung Lee, Enno Mammen Universität Mannheim, Germany, [email protected] 150 Statistische Woche 2015 15.-18. September, Hamburg SECTION: Methodology of Statistical Surveys A primary task in comparative politics is to locate party positions in a political space. There have been numerous empirical methods to extract the information from political texts. Political texts contain an extremely large number of words and the statistical problem of analyzing the counts of the word simultaneously is rather challenging. This has not been satisfactory answered in the literature. In the paper, we first attempt to answer this by considering Poisson models for each word count simultaneously and by providing a suitable statistical analysis. In particular, we allow for multi-dimensional party positions and develop a data-driven way of determining the number of positions from theory. This gives a new insight in the evolution of party positions and helps our understanding of a political system. Additionally, we consider a novel model which allow the political lexicon to change over time and develop a technique of using LASSO and fused LASSO in order to make inference. This gives more insight into the use of words by left and right-wing parties over time. Furthermore, to address the potential dependence structure of the word counts over time, we included integer-valued time series processes into our modeling approach and we implemented a suitable bootstrap method to construct confidence intervals for the model parameters. We apply our approach to German party manifestos of five parties over all seven federal elections after German reunification. Here, penalization in form of LASSO and fused LASSO makes it possible to deal with the resulting high-dimensional setup and allows us to fit a model of more than 50,000 parameters to a (7,000 by 35) data matrix which is sparse. Our simulation studies confirm that our procedure is robust, runs stable and leads to meaningful and interpretable results. 193 Robust Change Point Tests and Subsampling under Long Range Dependence Martin Wendler1 , Annika Betken, Herold Dehling, Aeneas Rooch Erst-Moritz-Arndt-Universität Greifswald, Germany, [email protected] SECTION: Time Series with Structural Breaks We present robust change point test under long range dependence. The test statistic is based on twosample U-statistics related to robust M estimators for the difference of location. The scaling needed to achieve convergence in distribution and the shape of the limit distribution depends on unknown parameters. To deal with these difficulties, we propose to combine self-normalized statistics and a subsampling approach. We will show the consistency of the subsampling for Gaussian long range dependent time series and apply the result to a self-normalized version of our change point test. 194 A Wilcoxon-Based Testing Procedure for Distinguishing between Long-Range Dependence and Short-Range Dependence with a Change in Mean Carina Gerstenberger1 Ruhr-Universität Bochum, Germany, [email protected] 151 15.-18. September, Hamburg Statistische Woche 2015 SECTION: Time Series with Structural Breaks For some applications it is necessary to know whether a time series is short- or long-range dependent, and quite a number of test statistics discriminate between these dependence structures. However, most of these tests spuriously reject the hypothesis of short-range dependence when change-points are present. Berkes, Horváth, Kokoszka and Shao (2006) have developed a test that does not have this drawback, and that is able to distinguishing between long-range dependence and short-range dependence with a change in the mean. After estimating the change-point, they calculate the CUSUM statistic based on the observations up to the estimated change-point and based on the observations after it. They show that the maximum of these two test statistics converges under the hypothesis of short-range dependent data with a change in mean in distribution to max{sup0≤t≤1 |B (1) (t)|, sup0≤t≤1 |B (2) (t)|}, where B (1) and B (2) are independent Brownian bridges. The distribution of sup0≤t≤1 |B(t)| is well known. Baek and Pipiras (2012) criticize that the test by Berkes et al. (2006) is too conservative and has a low power against the alternative, even if they consider the size adjusted power. We propose a modification of the test by Berkes et al. (2006) where instead of the CUSUM statistic we use the Wilcoxon change-point test statistic X n k X W1,n = max 1{Xi ≤Xj } − 1/2 , 1≤k<n i=1 j=k+1 introduced by Dehling, Rooch and Taqqu (2013). Under the hypothesis, we consider L1 near epoch dependent random variables with a change in mean at unknown time. We prove that the new test W k̂ Wk̂+1,n statistic Mn = max{ 1,3/2 }, where k̂ is the estimated breakpoint and σ̂12 and σ̂22 are , σ̂1 k̂ σ̂2 (n−k̂)3/2 suitable long-run variance estimators, converges under the hypothesis in distribution to the same limit as the CUSUM-based test. Simulation results show that the Wilcoxon-based test is not as conservative as the test by Berkes et al. (2006), especially for small sample sizes. Also the power of the Wilcoxon-based test is much higher than the power of the CUSUM-based test. While the latter is losing power on heavy-tailed processes, the power of the Wilcoxon-based test is not influenced by heavy-tailed distributions. 195 A Multivariate Local Whittle Estimator for the Long-Memory Parameter in Presence of Trends and Structural Breaks Christian Leschinski1 , Philipp Sibbertsen Leibniz Universität Hannover, Germany, [email protected] SECTION: Time Series with Structural Breaks As in the univariate case, analyses of multivariate long memory and fractional cointegration may generate spurious results in the presence of low frequency contaminations such as level shifts or trends. We therefore propose a multivariate local Whittle estimator for the memory parameters of a vector series that is robust with respect to these contaminations. In the case of fractional cointegration, it allows a simultaneous estimation of the memory parameters and the cointegrating vector. It is shown that the estimator is consistent and asymptotically normal. A Monte Carlo study 152 Statistische Woche 2015 15.-18. September, Hamburg is conducted to explore its small sample properties. The results show that in contrast to standard multivariate GSE methods, our estimator successfully mitigates the impact of level shifts. Due to the inclusion of the phase and coherence information in the multivariate series, our method allows more precise estimates compared to a repeated univariate analysis. An application to log-absolute returns of the S&P 500 shows, that part of the memory in this volatility series can be attributed to low frequency contaminations. 196 Testing for Changes in Persistence in APARCH-ML Models Tristan Hirsch1 Leibniz Universität Hannover, Germany, [email protected] SECTION: Time Series with Structural Breaks Testing for changes in persistence in all its variations and combinations has always been a contemporary issue and yet, has it never been more questioned than today. Following the latest research, the ability to characterize a time series stationary and non-stationary parts seems to be very desirable, since this behavior is essential for not only hypothesis testing and forecasting in economics as well as in finance but also for correct model building. The presence of heteroscedasticity in financial time series as well as asymmetric volatility and different transmission effects, notably the in mean and level effect, where the level affects the conditional variance and the conditional variance affects the mean, make testing and distinguishing the time series between I(0) and I(1) more difficult because the intrinsic persistence of the model can be mistaken with the extrinsic persistence due to the transmission effects. In our paper we apply tests for changes in persistence, inter alia Kim (2000) and Leybourne et al. (2007), to an APARCH-ML model with transmission effects and show that these tests suffer a loss in power and are oversized in case where the transmission effects are present, whereby the power and size are not affected from GARCH effects or the asymmetric volatility. Furthermore, we show that this model has an ARMA representation which is the reason for the size distortion due to wrong critical values. In this ARMA representation the level and the conditional volatility of the time series are directly independent of each other. Therefore, we can correct the tests for the ARMA component which has better performance and correct size in the APARCH-ML model. The framework is compared to other tests for changes in persistence in an empirical application to inflation rates. 197 Exact computation of the halfspace depth Rainer Dyckerhoff1 , Pavlo Mozharovskyi Universität zu Köln, Germany, [email protected] SECTION: Data depth and classification We suggest a theoretical framework for computing the exact value of the halfspace depth of a point z w.r.t. a data cloud x1 , . . . , xn of n points in arbitrary dimension. Based on this framework a whole class of algorithms can be derived. In all of these algorithms the depth is calculated as the 153 15.-18. September, Hamburg Statistische Woche 2015 minimum over a finite number of depth values w.r.t. proper projections of the data cloud. Three variants of this class are studied in more detail. All of these algorithms are capable of dealing with data that are not in general position and even with data that contain ties. As our simulations show, all proposed algorithms prove to be very efficient. 198 Tukey-trimmed regions via univariate projection quantiles Xiaohui Liu, Karl Mosler, Pavlo Mozharovskyi1 Universität zu Köln, Germany, [email protected] SECTION: Data depth and classification Data depth is a statistical function which assigns to each point z ∈ Rd its degree of centrality w.r.t. a given data cloud X. Tukey depth (1975) is defined as the smallest fraction of X that can be cut off by a closed halfspace with z on its boundary. A Tukey τ -trimmed region is the set of all points that have at least Tukey depth τ in X. As Tukey regions are visual, affine equivariant and robust, they are a useful tool in nonparametric multivariate analysis. While these regions are easily defined and interpreted, their particular application is impeded by the lack of an efficient computational procedure for d > 2. Hallin, Paindaveine and Šiman (The Annals of Statistics, 2010) develop a concept of multivariate directional quantiles which allows to compute the Tukey regions as a particular case. Different to them, we exploit the quantile tomography of Kong and Mizera (Statistica Sinica, 2012), which defines a Tukey contour as the envelope of essentially univariate quantiles in projections on directions filling the Rd . A finite number of such directions is sufficient to compute the quantile envelope. Based on this, we construct an algorithm that exploits the combinatorial properties of the Tukey region and is, by that, very fast. Additionally, we derive an upper bound on the number of the facets of a Tukey-trimmed region. 199 Depth-based classification for unimodal distributions Ondrej Vencalek1 , Pavlo Mozharovskyi Palacky University in Olomouc, Czech Republic, [email protected] SECTION: Data depth and classification Statistical inference based on data depth is nonparametric – it has been developed to avoid strict distributional assumptions. However, performance of depth-based classifiers was quite often investigated only for elliptically symmetric distributions. In that case the levelsets of density correspond to the depth-based central regions. We deal with more general (though still quite special) situation of unimodal distributions with convex levelsets of density. Thus we do not restrict our attention only to symmetric distributions, but we admit nonsymmetric distributions like skewed normal distribution. Since the Bayes optimal classifier is based on density, the discrepancy between levelsets of density and depth-based central regions causes problems in classification. A possible solution lies in newly defined notion of data depth, where the deepest point corresponds to the modus rather than the 154 Statistische Woche 2015 15.-18. September, Hamburg median of the distribution. The current contribution deals with one possible definition of such a depth function. 200 Data depth and classification: R-package ”ddalpha” Oleksii Pokotylo1 , Pavlo Mozharovskyi Universität zu Köln, Germany, [email protected] SECTION: Data depth and classification 1975 John W. Tukey proposed a novel way of data picturing, which rapidly developed into a powerful machinery for nonparametric analysis of multivariate data. The so-called data depth is a statistical function that evaluates closeness of an arbitrary point to some implicit center of present data. During the last several decades a variety of notions for the depth function have been suggested, differing in the aspects of the data they reflect, statistical properties, and computability. Among its applications, an important place occupies the currently advancing direction of depth-based classification. The R-package “ddalpha” offers a set of tools implementing algorithms for exact and approximate computation of the data depth and depth-based supervised classification of multivariate and functional data under one roof. The depth-vs-depth (DD-) classifier first depth-maps the data into a unit hypercube, and then performs classification in this low-dimensional space. In this way, coupling data depth with the alpha-procedure yields the ddalpha-classifier, a fast and robust methodology for machine learning. Special attention is payed to “outsiders”, points having zero depth w.r.t. all training classes and thus hindering their depth-classification, and extension of the data depth to functional settings. Additionally, the package contains instruments for exploring the data using data depth and DDclassifiers, including built-in empirical risk estimation and parameter tuning via cross-validation, visualization of the depth surfaces and DD-plots, a huge variety of real sets of multivariate and functional data, and synthetic data generators. The main functions of the package are presented, different notions of data depth and their combinations with the DD-classifiers are applied to a variety of simulated and real data and compared. 201 The mathematical link between discriminant function and transfer function for dynamic system description Tatjana Lange1 HS Merseburg, Germany, [email protected] SECTION: Data depth and classification The problem of many areas of sciences and practical applications consists in the finding of the so-called “decision rule”, and after it in the finding of the easiest way of using this “decision rule” for forecasting, automatic classification, risk reduction, improving of the dynamic characteristics of 155 15.-18. September, Hamburg Statistische Woche 2015 technical devices, etc. In all areas where for that purpose mathematics can be used the concrete mathematical tools may be very different depending on the application area. In this paper the author tries to show the mathematical link between some of these different mathematical tools, especially between the term of “decision rule” (or “discriminant function”) used in the theory of pattern recognition and classification, the “transfer function” widely used for the dynamic system description in close-loop control and in the theory of signals and systems, and the “discriminant function” in regression analysis used for the analysis of dynamic, stochastic and chaotic systems but also in mathematical statistics. The comparison will be done on the basis of the geometric presentation in linear algebra. It may be an originating point for further investigations in the theory of pattern recognition and classification, but also in the areas listed above where forecasting, risk estimation or suchlike are required. 202 Physically coherent probabilistic weather forecasts via discrete copula-based ensemble postprocessing methods Roman Schefzik1 , Thordis Thorarinsdottir, Tilmann Gneiting HITS gGmbH, Germany, [email protected] SECTION: Computational Statistics and Data Analysis State-of-the-art weather forecasts depend on ensemble prediction systems, which consist of multiple runs of dynamical numerical weather prediction models differing in the initial conditions and/or the parameterized numerical representation of the atmosphere. Statistical postprocessing of the ensemble forecasts can address biases and dispersion errors. However, current postprocessing approaches are mostly univariate and apply to a single weather quantity at a single location and for a single prediction horizon only. Such methods do not account for dependencies which are crucial in many applications. Non-parametric multivariate postprocessing approaches based on empirical copulas offer appealing options to address this. The ensemble copula coupling (ECC) method uses the empirical copula of the raw ensemble to aggregate samples from predictive distributions obtained by univariate postprocessing. It captures the spatial, temporal and inter-variable rank dependence pattern of the unprocessed raw ensemble. Proceeding in a similar manner, the Schaake shuffle alternatively captures dependence structures of past observations rather than ensemble forecasts. A specific implementation of the Schaake shuffle employs historical observation data from past dates for which the corresponding ensemble forecast resembles the current one. The methods are illustrated and tested using real weather forecast data provided by the European Centre for Medium-Range Weather Forecasts. 203 Regressionsanalysen für indirekte Daten Heiko Grönitz1 Philipps-Universität Marburg, Germany, [email protected] SECTION: Computational Statistics and Data Analysis 156 Statistische Woche 2015 15.-18. September, Hamburg Wir betrachten ein kategoriales Merkmal Y und einen Kovariablenvektor X und wollen den Einfluss von X auf Y statistisch untersuchen. Wenn man Y und X beobachtet hat, ist das Vorgehen hierzu allgemein bekannt: Typischerweise unterstellt man ein Modell für die Abhängigkeit des Merkmals Y von der exogenen Größe X (etwa multivariates logistisches Regressionsmodell) und schätzt die Modellparameter mit Standardalgorithmen (etwa Newtonverfahren zur Maximierung der Likelihoodfunktion zu Daten über Y). Manchmal trifft man allerdings auf Situationen, wo zwar über X, nicht aber über Y direkte Daten vorliegen, sondern Y mit Hilfe eines weiteren Merkmals W zu einem Merkmal A verschlüsselt wird. Dem Forscher liegen nur Daten von A und nicht von Y oder W vor und man kann von A nicht den Y-Wert folgern. Beispielsweise trifft man auf so eine Konstellation, wenn Y ein sensitives Merkmal ist, worüber Befragte ungern direkt Auskunft geben (etwa Einkommen oder Umfang einer ausgeübten Schwarzarbeit jeweils in Klassen erfasst), und Daten über Y unter Verwendung eines die Privatsphäre schützenden Umfragedesigns (Item-Count-Technik, Randomized-Response-Verfahren, Nonrandomized-Response-Methoden) gesammelt werden. Zum anderen könnte die beschriebene Verschlüsselung angewendet werden aus Datenschutzgründen. Hierbei gibt eine Institution nicht die direkten Daten über Y, sondern die verschlüsselten Daten A und das Verschlüsselungsschema an eine andere Institution weiter. Dieser Beitrag beschäftigt sich mit der Frage, ob und wie sich Regressionsanalysen mit indirekten Daten A statt Y durchführen lassen. Mit anderen Worten: Ist es möglich, den Einfluss von X auf Y zu untersuchen, wenn man nur verschlüsselte Daten A statt den Ursprungsdaten Y hat? Wir werden zeigen, dass solche Regressionsuntersuchungen tatsächlich machbar sind. Hierzu leiten wir Ansätze zur Schätzung her und erläutern Verfahren zur Schätzwertbestimmung sowie deren Eigenschaften. Die vorgeschlagenen Schätzverfahren sind dabei computerintensiv. Es zeigt sich, dass gewisse Matrizen, die sich aus dem Verschlüsselungsschema ergeben, die zentrale Rolle bei der Schätzung spielen, wohingegen das konkrete Verschlüsselungsschema nicht unbedingt relevant ist. Damit haben unsere Methoden sehr breite Anwendungsmöglichkeiten. 204 Bidding Curve Dynamics Stefan Rameseder1 , Dominik Liebl Universität Regensburg, Germany, [email protected] SECTION: Computational Statistics and Data Analysis In the case of an uniform price allocation, frequential multi-unit auctions provide a representative price signal. However, discriminatory multi-unit mechanisms tend to be strategic games called ”guess the marginal price” rather than giving a simple and transparent signal and therefore a functional data approach to extract all information is natural. Our dynamic functional factor model is tailored for this challenging area of application. To cope with the irregularly spaced and stronlgy time-dependent bids we propose to estimate the model components from discrete difference quotients using sparse functional principial component analysis. Based on our functional factor model we derive a new pricing algorithm by using uncertainty measures, which is demonstrated in a real data study and compared to standard univariate bidding procedures. 157 15.-18. September, Hamburg Statistische Woche 2015 205 Spatial variation of drivers of agricultural abandonment with spatially boosted models Max Schneider1 , Gilles Blanchard, Christian Levers, Tobias Kuemmerle Universität Potsdam, Germany, [email protected] SECTION: Computational Statistics and Data Analysis Agricultural abandonment (AA) is a significant land use process in the European Union (EU) and modeling its driving factors has great scientific and policy interest. Past studies of drivers of AA in Europe have been limited by their restricted geographic regions and their use of traditional statistical methods, failing to consider the spatial variation in both predictors and AA itself. In this study, we broaden our experimental region to cover the EU, which is the level of many agricultural policies governing AA, thus covering far more data as well as diverse landscapes. We implement a modeling framework based on boosted regression with spatially-varying terms, choosing the squared loss function and smoothing splines as base learners for their superior statistical properties. By building models containing both constant and spatially-varying coefficients, as well as modelizing the spatial variation of AA, we assess the importance of the spatial relationship between the drivers and AA. Models are built to classify agricultural land as abandoned or not. The potential drivers come from a set of over 40 landscape, environment and socio-economic variables hypothesized to influence AA, which is derived using fallow-active classifications of agricultural land from satellite images over the last 12 years. Models are then evaluated under several quantitative performance criteria; better performance of the models containing spatially-varying regressors over spatiallyconstant models indicates that the spatial variation of top predictors must be considered in process understanding of AA. Our analysis uncovers marked spatial variability in the behavior of top drivers of AA over the spatial domain; in fact, models with spatially-varying predictors outperform their spatially-constant counterparts.. Our models thus help capture the nuanced spatial relationships leading to observed rates of EU farmland abandonment. 206 Neue Datenquelle für die Statistik zur Arbeitnehmerüberlassung Holger Meinken1 Bundesagentur für Arbeit, Germany, [email protected] SECTION: Labour Market and Social Security Seit der Einführung der gewerbsmäßigen Arbeitnehmerüberlassung melden die Verleihbetriebe halbjährlich aggregierte Angaben über ihre Leiharbeitnehmer an die Statistik der Bundesagentur für Arbeit, die daraus die Daten zur Arbeitnehmerüberlassung veröffentlicht. Im Jahr 2012 wurde die Voraussetzung geschaffen, diese Statistik in die Beschäftigungsstatistik zu integrieren – durch ein gesondertes Kennzeichen der Arbeitnehmerüberlassung im bestehenden Meldeverfahren zur Sozialversicherung. 158 Statistische Woche 2015 15.-18. September, Hamburg Wesentliche Vorteile der neuen Statistik zur Arbeitnehmerüberlassung sind einerseits die größere fachliche Breite und Tiefe sowie andererseits die Kombinationsmöglichkeit mit bereits vorhandenen Merkmalen. Auf Grundlage der neuen Datenquelle können differenziertere Informationen der Leiharbeitnehmer beispielsweise nach Regionen, nach ausgeübten Tätigkeiten, nach dem Anforderungsniveau der Tätigkeiten (Helfer, Fachkraft, Spezialist, Experte) und nach dem Alter oder der Staatsangehörigkeit veröffentlicht werden. Mit der Integration der Statistik zur Arbeitnehmerüberlassung in die Beschäftigungsstatistik wird zudem eine höhere Qualität der Angaben über Leiharbeitnehmer sowie die Konsistenz zur bestehenden Beschäftigungsstatistik erreicht. Die Verleihbetriebe brauchen nun keine gesonderten Meldebelege mehr ausfüllen, weil die relevanten Informationen für diese Statistik bereits in den ohnehin erforderlichen Sozialversicherungsmeldungen des Arbeitgebers enthalten sind. Damit wird der Meldeaufwand für die Verleihbetriebe deutlich verringert. Insgesamt bietet eine in die Beschäftigungsstatistik integrierte Statistik zur Arbeitnehmerüberlassung eine höhere Leistungsfähigkeit als die bisherige gesonderte Statistik, bei gleichzeitig geringerem Erhebungsaufwand und höherer Konsistenz zur Beschäftigungsstatistik. Die Änderungen der Datenquelle und erste Ergebnisse aus der neuen Datenquelle werden vorgestellt. 207 Wie lange dauern Beschäftigungsverhältnisse? Ein Werkstattbericht Sandra Renn1 , Maren Rinn Bundesagentur für Arbeit, Germany, [email protected] SECTION: Labour Market and Social Security Fragen zur Stabilität von Beschäftigung und ihrer Dauer sind in der Arbeitsmarkt- und sozialpolitischen Diskussion der vergangenen Jahre stärker in den Fokus gerückt. Die Sicherheit des Lebensunterhalts, die Qualität der Arbeit und der Erwerb von Rentenanwartschaften sind nur einige Aspekte, die dabei eine Rolle spielen. Bislang wurden diese Themen hauptsächlich mit Befragungsdaten aus Stichprobenerhebungen bearbeitet. Als Vollerhebung bietet die Beschäftigungsstatistik die Möglichkeit, Dauern von sozialversicherungspflichtigen und geringfügigen Beschäftigungsverhältnissen zu untersuchen. Sie erlaubt differenzierte Analysen, beispielweise in regionaler und wirtschaftsfachlicher Gliederung sowie nach beruflicher Tätigkeit. Die Statistik der Bundesagentur für Arbeit bereitet gegenwärtig die Veröffentlichung von Beschäftigungsdauern für das Jahr 2016 vor. Im Tagungsbeitrag erläutern wir die Messkonzepte und diskutieren deren Aussagen. Deskriptive Befunde aus der Beschäftigungsstatistik werden präsentiert und den Ergebnissen des Mikrozensus und dem sozioökonomischen Panel gegenübergestellt. 208 Der Einfluss regionaler Feiertage auf die frühzeitige Arbeitsuchend-Meldung Gerald Seidel1 Bundesagentur für Arbeit, Germany, [email protected] 159 15.-18. September, Hamburg Statistische Woche 2015 SECTION: Labour Market and Social Security Der Zugang nicht-arbeitsloser Arbeitsuchender aus Beschäftigung am 1. Arbeitsmarkt ist ein kurzfristiger Frühindikator für die Entwicklung der Arbeitslosigkeit. Diese statistische Größe gibt näherungsweise die Zahl der frühzeitigen Arbeitsuchend-Meldungen (§ 38 Sozialgesetzbuch III) wider. Um die Ursprungsdaten der Zeitreihe von unterjährig regelmäßigen, vorhersehbaren Schwankungen zu befreien und so ihre Verwendung als Frühindikator zu erleichtern, wird sie in der Statistik der Bundesagentur für Arbeit saison- und kalenderbereinigt. Dabei zeigt sich, dass die verschiedenen regionalen Feiertage in unterschiedlichem Maße Einfluss auf die frühzeitige Arbeitsuchend-Meldung haben. Nach einer kurzen methodischen Darstellung der Kalenderbereinigung werden die Ergebnisse der verwendeten RegARIMA-Schätzung vorgestellt. 209 Robust IV-based Panel Tests of Stock Return Predictability and U.S. Monetary Policy Surprises Matei Demetrescu, Danvee Floro1 University of Kiel, Germany, [email protected] SECTION: Statistical Theory and Methodology The paper addresses panel-based inference on the predictive power of possibly persistent and endogenous variables. Even in univariate examinations, assessing the predictive power of financial variables is often challenged by endogeneity induced by correlation between shocks to the predictors and stock returns as well as the unknown persistence of the predictors themselves. This gives rise to non-pivotal limiting distributions in standard inference methods, a problem that is compounded in the panel setup, where cross-sectional dependence can also cause invalid inference. In order to produce robust results, we adapt to the panel context the overidentified instrumental variable-based test proposed by Breitung and Demetrescu (2013, Journal of Econometrics, forthcoming) which accommodates different degrees of persistence of the regressors as well as endogeneity. To deal with cross-dependence, we augment our model with (estimated) common factors in the panel regression. The discussed methods are applied in our study of the predictive power of U.S. conventional monetary policy surprises alongside typical financial valuation ratios in a panel of 230 S&P 500 stocks sorted according to industry in the period January 1990-December 2007. The empirical analysis shows that the surprise and expected components of Federal funds target rate changes are significant and robust predictors of stock returns, whose effects are specific to the degree of sensitivity of the industry to monetary and business cycle conditions. Finally, we document that the predictive power of typical financial valuation ratios are boosted when we condition them on the sign and direction of Fed’s broad monetary policy stance. 210 Large Initial Values and Time Series Tests of the Convergence Hypothesis Michael Scholz1 , Martin Wagner Karl-Franzens Universität Graz, Austria, [email protected] 160 Statistische Woche 2015 15.-18. September, Hamburg SECTION: Statistical Theory and Methodology Time-series based tests of the convergence hypothesis have been widely used in applied macroeconomics for over two decades. The occurrence of large initial conditions and their consequences for the asymptotic behavior of standard unit-root tests like the Augmented-Dickey-Fuller (ADF) test were ignored so far in the empirical growth literature. This paper analyses the ADF test in the presence of large initial values and derives the asymptotic behavior in the stationary, the unit-root, and the near integrated case. In a finite sample simulation study we find that the limiting distributions with the initial value component are well approximated by the theoretical results but differ dramatically from standard ADF distributions. As a consequence, we observe severe size and power distortions of the standard ADF test causing to many rejections of the convergence hypothesis. The economic implications of these findings are demonstrated in an application using output series from the Penn World Tables over 1950-2011. 211 Generalized Spatial Autoregressive Conditional Heteroscedasticity Philipp Otto1 , Robert Garthoff Europa-Universität Viadrina, Germany, [email protected] SECTION: Statistical Theory and Methodology Assume {Y (s) ∈ R : s ∈ Ds } to be an univariate spatial stochastic process, where Ds is a subset of the q-dimensional real numbers Rq or the q-dimensional integers Zq . Regarding the first case a continuous space is present, if a q-dimensional rectangle of positive volume in Ds exists (cf. Cressie and Wikle (2011)). Considering the second case the resulting process is a spatial lattice process. Let (s1 , . . . , sn ) denote all locations and Y is the vector of observations (Y (si ))i=1,...,n . The commonly applied spatial autoregressive model assumes that the variance is constant over all si . This approach is extended by assuming that the variance can vary over space building clusters of high and low variance. Analogue to the ARCH and GARCH model in time-series analysis according Engle (1982) and Bollerslev (1986), the observation at some location i can be modeled as follows Y = diag(h)1/2 ε (211.1) where εi is assumed to be independent and identical distributed random error with E(εi ) = 0 and V ar(εi ) = 1. Furthermore, the vector h = (hi )i=1,...,n can be specified as h = a0 1n + ρW1 (diag(Y )Y ) . (211.2) Matrix W of spatial weights is assumed to be non-stochastic with zero elements on the diagonal. Moreover, one could define the residual process of a classical spatial autoregressive process as the above introduced spatial ARCH process. %In Figure ?? we illustrate the resulting process. One may see that the variance of the process depends on the location. In contrast to the common temporal ARCH model, where the distribution of Yt knowing the full information set of the previous period ψt−1 is well defined (cf. Engle (1982) and Bollerslev (1986)), the information set of all spatially lagged locations of some location s depend on the observation in s. Hence, the distribution of Y (si ) is not straightforward. 161 15.-18. September, Hamburg Statistische Woche 2015 212 Model Confidence Sets for Lag Selection in Autoregressive Models Rolf Tschernig1 , Niels Aka Universität Regensburg, Germany, [email protected] SECTION: Statistical Theory and Methodology We investigate the performance of the model confidence set (MCS) procedure proposed by Hansen, Lunde, and Nason for linear univariate time series modeling. Among other things, applying the MCS algorithm requires to choose a loss function and an equivalence test. For the equivalence test we apply the T-max and the T-range statistic suggested in the literature and investigate the T-min statistic. We propose a loss function that averages over losses resulting from various multi-stepahead forecasts. We generate time series from simple AR(3) processes and take as initial model set AR models up to order eight, including 246 subset models. For each model contained in the model confidence set impulse responses and forecasts are computed and then averaged across models for each horizon. This procedure is compared to calculations based on single models selected by AIC, HQ, and SC, respectively. Our results indicate that the MCS-based forecasting can be substantially better than AIC/HQ/SCbased forecasting when the newly proposed loss function based on averaging multi-step-ahead forecasting losses is used and the signal-to-noise ratio of the data generating process is large. On the other hand, we have not found an advantage of the MCS-based procedure over traditional lag selection for impulse response modeling. We investigate the size and power of the MCS and find that the MCS procedure can have very low power. However, we find that the mean squared error of prediction (MSEP) of models in the MCS is typically only slightly larger than the MSEP of the true model. We define a set of practically superior models that also includes those models with marginally larger MSEP. The MCS procedure identifies this set of practically superior models very well if the signal-to-noise ratio and the sample size are sufficiently large. 213 Multivariate dispersion estimated by the Minimum Covariance Determinant Estimator Gentiane HAESBROECK1 University of Liège, Belgium, [email protected] SECTION: Nonparametric and Robust Statistics The Minimum Covariance Determinant (MCD) estimator is a robust estimator of multivariate location and dispersion that is both intuitively appealing and widely available in statistical softwares. After recalling the definition of this estimator and reviewing some of its known properties (high breakdown point, bounded influence function, asymptotic normality,...), the talk will focus first on the bias behaviour of its dispersion part. Two bias measures will be considered in order to 162 Statistische Woche 2015 15.-18. September, Hamburg distinguish between the size bias and the shape bias of the covariance estimator and in both cases, explosion and implosion maxbias curves will be derived. The second part of the talk will be devoted to an adaptation of the definition of the MCD estimator. This regularized version may be used to measure the dispersion of flat data in a robust way or, depending on the choice of the loss function, may be useful when one is interested in getting sparse estimated covariance matrices. Several applications (outlier detection in spatial data, robust performance comparison of equipments in external quality assessment analyses, robust construction of graphical models,...) will be considered throughout the talk to illustrate the usefulness of being able to combine robustness and regularization. 214 Using data depth to find prediction intervals for state dependent Poisson processes with application to fatigue experiments Sebastian Szugat1 , Christine H. Müller Technische Universität Dortmund, Germany, [email protected] SECTION: Nonparametric and Robust Statistics In fatigue experiments of prestressed concrete the failure times of prestressing wires in the material are observed. These failure times depend on the initial stress and the number of previously broken wires because with each broken wire the stress increases on the remaining ones. A subject of particular interest is the prediction of the L-th failure after observing J < L previous failures. We model the number of broken wires as events of a state dependent Poisson process. Therefore the waiting times between the events are exponentially distributed. Hence, the sum of the waiting times is the sum of exponential distributions each with a different parameter. We provide a prediction interval for the resulting hypoexponential distribution. The parameters of this hypoexponential distribution can be estimated by using data from preceding fatigue experiments. Robust test procedures based on data depth can then be used to construct a confidence set for the estimated parameters and with this a prediction interval for the time of the L-th failure. Finally, results based on simulations and real data are presented. 215 On Robust Tail Index Estimation Dieter Schell1 Universität Konstanz, Germany, [email protected] SECTION: Nonparametric and Robust Statistics We consider a class of simple estimators of the tail index related to the harmonic mean. The asymptotic results depend on the first and second order tail properties of the underlying distribution and a tuning parameter allowing to regulate the trade-off between robustness and sensitivity. In 163 15.-18. September, Hamburg Statistische Woche 2015 comparison to classical tail index estimators a reduced sensitivity to large outliers is demonstrated by a small simulation study. 216 Change-point tests based on estimating functions Claudia Kirch, Joseph Tadjuidje Kamgaing1 University of Heidelberg, Germany, [email protected] SECTION: Time Series with Structural Breaks Many classical change-point tests are based on cumulative sums of estimating functions, where the most prominent example are quasi maximum likelihood scores. Examples include testing for changes in the location model, continuous linear and non-linear autoregressive time series as well as most recently changes in count time series. While classic theory deals with offline procedures where the full data set has been observed before a statistical decision about a change-point is made, the same principles can be used in sequential testing. The latter has gained some increased interest in the last decade, where initial parameter estimation is based on some historic data set with no change-point, before cumulative sum charts are used to monitor newly arriving data. In such a setup, asymptotics are carried out with the size of the historic data set increasing to infinity. In applications such a data set will typically exist as usually at least some data is collected before any reasonable statistical inference can be made. In this talk we explain the underlying ideas and extract regularity conditions under which asymptotics both under the null hypothesis as well as alternative can be derived. We will illustrate the usefulness using different examples that have partly already been discussed in the literature. 217 Robust procedures in the sequential change-point analysis Christina Stöhr1 Otto-von-Guericke Universität Magdeburg, Germany, [email protected] SECTION: Time Series with Structural Breaks There are two different approaches in the context of change-point analysis. In the classical aposteriori approach, a completely observed data set is available when starting the testing procedure. The sequential change-point test we adapt tests for structural breaks after each observation while still controlling the type-1-error asymptotically. Due to the fact that the original distribution of the observed data is not known this procedure requires a historical data set without a change. Robust testing procedures are of particular importance for the sequential change-point analysis. False alarms can lead to unnecessary costs and efforts as, for example monitoring patient or machine data requires an immediate intervention if a structural break is detected. Hence, robust tests are needed to reliably detect true changes without causing false alarms due to outliers in the observed data. Related to a-posteriori tests investigated by Dehling and Fried (2011) we propose robust sequential testing procedures based on U-statistics. We consider the construction of the test statistics and their asymptotic behavior under the null hypothesis as well as alternatives. The performance of the test for finite sample sizes is assessed by a simulation study. 164 Statistische Woche 2015 15.-18. September, Hamburg 218 Perfect estimation in short panel data Leonid Torgovitski1 Mathematisches Institut der Universität zu Köln, Germany, [email protected] SECTION: Time Series with Structural Breaks We study the nonparametric change point estimation for common changes in the means of panel data. The consistency of estimates is investigated when the number of panels tends to infinity but the sample size remains finite. Our focus is the weighted total variation denoising estimates (involving the group fused LASSO) and the popular classical weighted CUSUM (cumulative sums) estimates. Due to the fixed sample size, the common weighting schemes do not guarantee consistency under (serial) dependencies and most typical weightings do not even provide consistency in the i.i.d. setting when the noise is too dominant. Hence, on the one hand, we propose a consistent extension of existing weighting schemes and discuss straightforward estimates of those weighting schemes. The performance will be demonstrated empirically in a simulation study. On the other hand, we derive sharp bounds on the change to noise ratio that ensures consistency in the i.i.d. setting for classical weightings. 219 Detecting Structural Breaks in Small Samples with a Fusion Penalty Jana Mareckova1 Universität Konstanz, Germany, [email protected] SECTION: Time Series with Structural Breaks In this paper a fusion penalty is added to detect structural breaks in a linear regression with timevarying parameters. The idea of the fusion penalty is to start with the most general model and shrink the differences of parameters consecutive in time to zero. At points, at which the differences between the estimated parameters are non-zero, structural breaks are detected. The main advantage of the fusion penalty over the standard statistical tests which detect structural breaks is the potential to detect a break at the beginning or at the end of a time series without imposing too strong assumptions about the number of change points or their positions in the time series. Regarding the estimation, an important issue is the optimal choice of shrinkage otherwise the number of breaks is over- or underestimated and/or the estimates are extremely biased. To select the optimal shrinkage, two criteria are taken from the literature and one new is introduced in the paper. In the simulation study, the criteria are compared to each other and to standard tests in terms of the correct number of detected breaks, the closeness to the true position of the break and the bias of the estimates. The results show that in small samples the criteria from the literature estimate the number of breaks reasonably well, however the parameters are strongly biased. The newly introduced criterion performs better regarding the bias and has better or comparable performance regarding the detection of the correct number of breaks in comparison to the other chosen criteria 165 15.-18. September, Hamburg Statistische Woche 2015 and the standard tests, especially in the presence of a break at the extreme position at the end or at the beginning of the time series. 220 Effectiveness of Sequences of Classroom Training for Welfare Recipients: What works best in West Germany? Katharina Dengler1 Institut für Arbeitsmarkt- und Berufsforschung, Germany, [email protected] SECTION: Labour Market and Social Security Sequences of active labour market programmes (ALMPs) may be part of an intensified activation strategy targeting hard-to-place individuals who may be long-term unemployed and who may encounter extreme difficulty in finding jobs. Such sequences are very common among welfare recipients in Germany, but most studies only evaluate either single ALMPs or unemployed individuals’ first ALMP. Thus, I analyse the effects of different sequences of classroom training, unemployment benefit II (UB-II)-receipt and One-Euro-Jobs for West German men and women on different labour market outcomes. Using rich administrative data and a dynamic matching approach, I can control for dynamic selection problems that occur during a sequence. My results show that two classroom trainings are more effective than two periods of UB-II-receipt in helping welfare recipients find regular employment, especially among West German women. In some cases, avoiding participation in multiple programmes is preferable: participation in two classroom trainings has mostly no beneficial effects over participation in one classroom training in the second period only and participation in one classroom training followed by a One-Euro-Job has mostly no beneficial effects over participation in a One-Euro-Job in the second period only. Moreover, immediately assigning individuals to classroom training is more effective than waiting and assigning them to classroom training in the second period (the effects of timing) because of the positive effects on avoiding UBII-receipt (work-test function). However, evidence for programme careers or stepwise integration is only observed for the sequence of two classroom trainings versus the sequence of two periods of UB-II-receipt. 221 Long-term care and labour market performance of welfare recipients in Germany Eva Kopf1 , Katrin Hohmeyer Institut für Arbeitsmarkt- und Berufsforschung, Germany, [email protected] SECTION: Labour Market and Social Security Due to the demographic development, the demand for long-term care is increasing in the near future in many developed countries. Furthermore in response to these demographic changes, the OECD advised member countries to take measures to increase employment to ensure the sustainability of the welfare state. Since the welfare reforms in Germany, welfare recipients were supposed to be ready to work and help themselves to decrease or end the neediness of their household. However, 166 Statistische Woche 2015 15.-18. September, Hamburg 7% of the members of these households who receive welfare benefits are engaged in long-term care of their relatives or friends in need of assistance. Their care responsibilities may interfere with their job search. Our paper studies the relationship between care provision of welfare recipients and their labour market performance. The direction of this relationship is not clear: on the one hand, taking care of relatives can worsen labour market opportunities (e.g., because less time is available for working). On the other hand, taking care of relatives can be the result of bad labour market opportunities (e.g., individuals decide to take care of their relatives in need of assistance because they do not work anyway). Furthermore, regarding welfare recipients it is also possible that providing care will increase their labour market prospects (e.g., because they qualify for jobs in the care sector). To shed light on this relationship, we study the labour market performance of welfare recipients taking care of relatives. Our analyses are based on survey data from the Panel Study Labour Market and Social Security and on panel methods. 222 Wohnsituation und -kosten in der Grundsicherung für Arbeitsuchende zwischen Entspannung und Anspannung Henning Schridde1 Statistik der Bundesagentur für Arbeit, Germany, [email protected] SECTION: Labour Market and Social Security Ein Zehntel aller Haushalte ist zur Sicherung ihrer Wohnungsversorgung auf Leistungen der Grundsicherung für Arbeitsuchende angewiesen. Kosten für Unterkunft und Heizung werden in der Grundsicherung für Arbeitsuchende in Höhe der tatsächlichen Aufwendungen anerkannt, soweit diese angemessen sind. Ob eine Wohnung angemessen ist, entscheidet sich nach den jeweiligen kommunalen Richtlinien zur Angemessenheit der Wohnkosten. Dabei spielen neben der Größe der Bedarfsgemeinschaft die Größe und Ausstattung der Wohnung und die Höhe der Wohnkosten eine wichtige Rolle. Die Lage auf den Wohnungsmärkten ist regional und kleinräumig sehr unterschiedlich. Insbesondere durch Einführung der Mietpreisbremse im Jahr 2015 ist die Situation auf angespannten Wohnungsmärkten, wie z.B. in Hamburg in den Fokus der allgemeinen Aufmerksamkeit gerückt. Die Frage ist daher, wie sich die Wohnkosten und die Wohnsituation von Bedarfsgemeinschaften in der Grundsicherung für Arbeitsuchende entwickelt haben und wie sich darin die Lage am örtlichen Wohnungsmarkt widerspiegelt? 223 Objective Bayesian inference for linear Gaussian random coefficient regression with inhomogeneous within-class variances Clemens Elster, Gerd Wübbeler1 Physikalische-Technische Bundesanstalt, Germany, [email protected] SECTION: Statistical Theory and Methodology We present an objective Bayesian inference for linear Gaussian random coefficient regression with inhomogeneous within-class variances. The considered class of models includes the unbalanced 167 15.-18. September, Hamburg Statistische Woche 2015 heteroscedastic one-way random effects model. We derive the Berger and Bernardo reference prior when the means of the random coefficients form the parameters of interest, and we investigate the properties of the resulting posterior. While the obtained reference prior is improper, propriety of the resulting posterior is ensured under the condition that the number of classes is at least two and the number of observations per class exceeds the number p of means of the random coefficients. Furthermore, the marginal posterior for the means of the random coefficients has first moments provided that the number of classes is at least three and the number of observations per class exceeds p+1. Similarly, second moments exist when the number of classes is at least four with more than p+2 observations per class. A simulation study is presented which investigates the frequentist behavior of credible intervals under repeated sampling. The results suggest that shortest 95% credible intervals appear to have roughly 95% coverage probability. Finally, results of an application are presented. 224 Bayesian Estimation of a Proportional Hazards Model for Doubly Censored Durations Achim Dörre1 , Rafael Weißbach Universität Rostock, Germany, [email protected] SECTION: Statistical Theory and Methodology Purpose: Doubly censored data consist of uncensored, left and right censored data and occur frequently in survival time contexts. Bayes estimators of a parametric proportional hazards model for random durations subject to double-censoring are investigated. In particular, we prove consistency and asymptotic normality of the Bayes estimators with respect to quadratic loss. In addition, estimators of standard errors are derived. The proposed model is applied to rating class data from a large German bank. Initial rating class effect and time effects for rating transitions are analysed. Design and Methodology: Bayes estimators are implicitly defined as the minimizing argument of expected loss with respect to the posterior distribution of the parameters. In the given setting, no conjugate prior distribution is available. Therefore, the computation is performed by use of MCMC algorithms for which logarithmic ratios of the posterior density are derived. A simulation study is conducted in order to analyse the finite-sample performance in comparison to maximum likelihood estimation. Results and Practical Implications: It turns out that parametric Bayes estimators and confidence intervals can be derived in a consistent manner and are asymptotically normal. Their performance in finite samples is satisfying and does not require asymptotic justifications. It is argued that the proposed Bayes estimators are a reasonable alternative to maximum likelihood estimation for small and moderate sample size. 225 Extreme value analysis for elliptical distributions and their generalizations Miriam Isabel Seifert1 168 Statistische Woche 2015 15.-18. September, Hamburg Helmut Schmidt University Hamburg, Germany, [email protected] SECTION: Statistical Theory and Methodology The conditional extreme value (CEV) models offer an effective approach for studying the asymptotics of random vectors (X, Y ). The aim is to find the limiting conditional distribution of (X, Y ) as the conditioning variable X becomes large. According to this CEV approach, elliptical distributions have been intensively investigated, in particular in a polar representation R · (u(T ), v(T )) where the level curve (u(t), v(t)) is elliptical. We present interesting generalizations of the existing conditional limit theorems into different directions: • The function u may have several global maxima instead of only one. • The level curve (u(t), v(t)) does not have to be convex any longer. In the latter case, the usual method of CEV leads to a degenerate limit. But we can obtain a non-degenerate limit theorem using “random norming”. We interpret our ideas and results geometrically, in particular in terms of the corresponding level curves. 226 Singular Inverse Wishart Distribution with Application to Portfolio Theory Taras Bodnar, Stepan Mazur1 , Krzysztof Podgorski Lund University, Sweden, [email protected] SECTION: Statistical Theory and Methodology The inverse of the standard estimate of covariance matrix is frequently used in the portfolio theory to estimate the optimal portfolio weights. For this problem, the distribution of the linear transformation of the inverse is needed. We obtain this distribution in the case when the sample size is smaller than the dimension, the underlying covariance matrix is singular, and the vectors of returns are independent and normally distributed. For the result, the distribution of the inverse of covariance estimate is needed and it is derived and referred to as the singular inverse Wishart distribution. We use these results to provide an explicit stochastic representation of an estimate of the mean-variance portfolio weights as well as to derive its characteristic function and the moments of higher order. 227 Modeling of crack propagation in different steel specimens with stochastic differential equations by using trimmed likelihoods Stefan Meinke1 Technische Universität Dortmund, Germany, [email protected] SECTION: Nonparametric and Robust Statistics Understanding the propagation of cracks in metallic compositions during fatigue experiments can 169 15.-18. September, Hamburg Statistische Woche 2015 help to analyze its life time. In this context cyclic tension-compression fatigue tests are performed on two identical steel specimens under different stress levels. The data results from images of the specimens recorded at different numbers of cyclic tensions and compressions. To extract cracks from these records, techniques in area of pattern recognition are used. Based on the detected cracks, trajectories of the largest cracks in time are identified. The resulting crack growth curves in both specimens are then modeled as stochastic processes. Due to different qualities of the images, potential outliers in the crack growth curves are apparent. We analyze these crack growth curves by using multiple stochastic differential equations. On the basis of these results we test whether the stress level has a significant influence on the crack propagation. By reason of the outliers we propose the usage of trimmed likelihoods in order to achieve a reliable estimation. 228 Nonparametric estimation of replacement rates Nora Dörmann1 Goethe-Universität, Germany, [email protected] SECTION: Nonparametric and Robust Statistics Consider a sequence of random variables representing lifetimes of articles being renewed. The goal is to estimate the replacement rate 1/µ where µ stands for the expected lifetime of an article. The variables are assumed to be non-negative and identically distributed; they may be dependent and the common underlying distribution is unknown. As maximum likelihood methods are not applicable, the method for moments is implemented. But this method is not suitable for derivation of corresponding moments. Therefor the delta method for determination of moments and independent random variables is generally preferred. But, in either case, strict requirements on the boundedness of the function or its derivatives need to be fulfilled. As the rate of replacement is a reciprocal function, this method can neither be chosen. Meanwhile and in contrast to the literature, Weba and Dörmann (1) show that the delta method is valid for a broader class of functions. Provided mild requirements upon the global growth of f are met, also functions where the function itself or all its derivatives are unbounded may be considered. Moreover, a quantitative version of the weak law of large numbers is sufficient and necessary for the approximation of f and the expansion of its moments. Furthermore, observations are allowed to be dependent and no assumptions on their distributions are required. It is the purpose to apply this method on reciprocal functions of renewal theory dependent on µ with dependent observations. Moreover, numerical examples and results of simulations are presented. 1. M. Weba and N. Dörmann (2014). The delta method for moments when observations are dependent. Working Paper. 229 Multiple Bandwidth Selection for Smoothing Sparse Functional Data with Covariate Adjustment 170 Statistische Woche 2015 15.-18. September, Hamburg Dominik Liebl1 Uni Bonn, Germany, [email protected] SECTION: Nonparametric and Robust Statistics This paper deals with the problem of estimating the covariate adjusted mean and covariance function from functional time series data. Similarly to the case of longitudinal or sparse functional data, it is assumed that only the noisy discretization points of the functional data are observable. Though, in contrast to the usual assumption in the context of sparse functional data, the amount of discretization points per function is allowed to diverge with the number of functions. Our focus lies upon the multiple bandwidth selection problem for the multivariate local linear estimators of the covariate adjusted mean and covariance function, which is found to be real problem for typical data sizes in practice. We show that already for a slowly diverging number of discretization points per function, the multivariate local linear estimators attain convergence rates that are typically found for univariate nonparametric estimators. This property is used to propose a hybrid bandwidth selection procedure, which combines the advantages of easily applicable rules-of-thumb procedures and cross-validation. The finite sample performance of the hybrid bandwidth selection procedure is shown in a simulation study and its applicability is demonstrated by a real data study on the analysis of the price effects of Germany’s abrupt nuclear phase out after the nuclear disaster in Fukushima in mid-March 2011. 171 15.-18. September, Hamburg Statistische Woche 2015 Teilnehmer – Participants: Abbas, Sermad, Technische Universität Dortmund, [email protected] Abdulmannan, Hawazen Ibrahim, King Saud Bin Abdulaziz University for Health Sciences, [email protected] Abel, Falk, Stadt Leipzig, [email protected] Ambach, Daniel, Europa-Universität Viradrina, [email protected] Amend, Elke, Bundesagentur für Arbeit, [email protected] Amsbeck, Hannah, Bertelsmann Stiftung, [email protected] Annuss, Rolf, LZG.NRW, [email protected] Asselborn, Herbert, Stadt Köln, [email protected] Bader, Julia, Wirtschaftskammer Wien, [email protected] Bayer, Sebastian, Universität Konstanz, [email protected] Beck, Martin, Statistisches Bundesamt, [email protected] Becker, Anette, Stadtverwaltung Chemnitz, [email protected] Behmann, Mathias, Stadtmagistrat Innsbruck, [email protected] Beier, Rafael, Deutsche Bundesbank, [email protected] Berger, Theo, University of Bremen, [email protected] Birke, Melanie, Universität Bayreuth, [email protected] Birner, Nadine, VDI/VDE Innovation + Technik GmbH, [email protected] Bodnar, Taras, Stockholm University, [email protected] Bodnar, Olha, Physikalisch-Technische Bundesanstalt, [email protected] Bömermann, Hartmut, Amt für Statistik Berlin-Brandenburg, [email protected] Bork, Beate, Statistisches Bundesamt, [email protected] Borozdina, Olga, Goethe-Universität Frankfurt am Main, [email protected] Braakmann, Albert, Statistisches Bundesamt, [email protected] Bräuer, Anne, Landeshauptstadt Dresden, [email protected] Breuer, Hermann, Satdt Köln, Amt für Stadtentwicklung und Statistik, [email protected] Breunig, Christoph, Humboldt-Universität zu Berlin, [email protected] Brugger, Pia, Statistisches Bundesamt, [email protected] Brümmerhoff, Dieter, Uni Rostock, [email protected] 172 Statistische Woche 2015 15.-18. September, Hamburg Bubik, Michael, Ministerium für Finanzen und Wirtschaft Baden-Württemberg, [email protected] Bucchia, Béatrice, Universität zu Köln, [email protected] Buscher, Lioba, Landeshauptstadt Dresden, [email protected] Buschle, Nicole-Barbara, Statistisches Bundesamt, [email protected] Büttner, Thomas, Bundesagentur für Arbeit, [email protected] Butucea, Cristina, University Paris-Est Marne-la-Vallee, [email protected] Chang, Youngjae, Korea National Open Univ., [email protected] Chau, Joris, Université Catholique de Louvain, [email protected] Chlumsky, Jürgen, Statistisches Bundesamt, [email protected] Christensen, Björn, Fachhochschule Kiel, [email protected] Crößmann, Anja, Statistisches Bundesamt, [email protected] Cuevas, Antonio, Universidad Autónoma de Madrid, [email protected] Daube, Matthias, Thüringer Landesamt für Statistik, [email protected] Delfs, Silke, Bundesagentur für Arbeit, [email protected] Demetrescu, Matei, CAU Kiel, [email protected] Dengler, Katharina, Institut für Arbeitsmarkt- und Berufsforschung, [email protected] Dennis, Emily Beth, University of Kent, [email protected] DeRuiter, Stacy Lynn, Calvin College, [email protected] Dick, Joscha, Stadt Köln, [email protected] Diefenbacher, Hans, Universität Heidelberg, Alfred-Weber-Institut/FEST, [email protected] Dignat, Leonia, Bundesagentur für Arbeit, [email protected] Dimitriadis, Timo, Universität Konstanz, [email protected] Dittrich, Stefan, Statistisches Bundesamt, [email protected] Dmytriv, Solomiia, Europa-Universität Viadrina, [email protected] Döring, Maik, Universität Hohenheim, [email protected] Dörmann, Nora, Goethe-Universität, [email protected] Dörre, Achim, Universität Rostock, [email protected] Dunker, Fabian, Ruhr-Universität Bochum, [email protected] Dürre, Alexander, TU Dortmund, [email protected] Dyckerhoff, Rainer, Universität zu Köln, [email protected] 173 15.-18. September, Hamburg Statistische Woche 2015 Eckelt, Jan-Peter, Statistisches Landesamt Baden-Württemberg, [email protected] Eckley, Idris, Lancaster University, [email protected] Ehling, Manfred, Destatis, [email protected] Eichhorn, Lothar, Landesamt für Statistik Niedersachsen, [email protected] Eichhorn, Tanja, Landesamt für Statistik Niedersachsen, [email protected] Eisenmenger, Matthias, Statistisches Bundesamt, [email protected] Elster, Clemens, Physikalisch-Technische Bundesanstalt, [email protected] Enderlein, Ralf, Statistisches Amt für Hamburg und Schleswig-Holstein, [email protected] EPLER, Margit, Österreichische Statistische Gesellschaft, [email protected] Eppmann, Helmut, Statistikamt Nord, [email protected] Erdmann, Thorsten, Statistikamt Nord, [email protected] Fasso’, Alessandro, University of Bergamo, [email protected] Feßler, Erik, Stadt Göttingen, [email protected] Filzmoser, Peter, Vienna University of Technology, [email protected] Fink, Anne, Deutsches Zentrum für Neurodegenerative Erkrankungen e.V., [email protected] Fischer, Hans-Josef, Information und Technik Nordrhein-Westfalen, [email protected] Fischer, Christoph, Statistisches Landesamt Baden-Württemberg, [email protected] Fischer, Rose-Marie, Fujitsu TDS GmbH, [email protected] Fleischer, Karlheinz, Philipps-Universität Marburg, [email protected] Floro, Danvee, University of Kiel, [email protected] Förster, Manuel, Johannes Gutenberg-Universität, [email protected] Förster, Matthias, Landeshauptstadt Potsdam, [email protected] Frey, Christoph, Universität Konstanz, [email protected] Freyermuth, Jean-Marc, University of Cambridge, [email protected] Frisch, Marion, Bayerisches Landesamt für Statistik, [email protected] Fürnrohr, Michael, Bayerisches Landesamt für Statistik, [email protected] Gabler, Siegfried, Gesis, [email protected] Gabriel, Horst, Bundesagentur für Arbeit, [email protected] Garcia Diez, Susana, Statistisches Bundesamt, [email protected] Geerdes, Katja, Dt. Kinder- und Jugendstiftung, [email protected] 174 Statistische Woche 2015 15.-18. September, Hamburg Germakowsky, Gerd, Stadt Witten, [email protected] Gerstenberger, Carina, Ruhr-Universität Bochum, [email protected] Gertheiss, Jan, Georg-August-Universität Göttingen, [email protected] Giovannini, Enrico, Rome University, Glaser, Stephanie, Universität Hohenheim, [email protected] Glass, Katharina, Universität Hamburg, [email protected] Gleich, Andreas, Stadt Augsburg, [email protected] Göddecke-Stellmann, Jürgen, Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR), [email protected] Golosnoy, Vasyl, Ruhr-Universität Bochum, [email protected] Gönsch, Iris, Statistisches Bundesamt, [email protected] Gottschalk, Sandra, Zentrum für Europäische Wirtschaftsforschung (ZEW) GmbH, [email protected] Götz, Eva, Bayerisches Staatsministerium für Wirtschaft, [email protected] Götz, Katharina, IT.NRW, [email protected] Grömling, Michael, Institut der deutschen Wirtschaft Köln, [email protected] Groß, Jürgen, Otto-von-Guericke-Universität Magdeburg, [email protected] Gruber, Stefan, Statistisches Bundesamt, [email protected] Grünewald, Werner, Europäische Kommission - Generaldirektion für Übersetzung, [email protected] Gutfleisch, Ralf, Stadt Frankfurt a.M., [email protected] Habla, Heike, Statistisches Bundesamt, [email protected] Haesbroeck, Gentiane, University of Liège, [email protected] Hahn, Rainer, Bundesagentur für Arbeit, [email protected] Hanke, Bernd, Bundesministerium der Finanzen, [email protected] Hänsel, Kerstin, Destatis, [email protected] Harms, Torsten, DHBW Karlsruhe, [email protected] Hartmann, Michael, Bundesagentur für Arbeit, [email protected] Haupt, Harry, Universität Passau, [email protected] Haußmann, Michael, LHS Stuttgart, [email protected] Heckel, Christiane, BIK ASCHPURWIS + BEHRENS GmbH, [email protected] Heiden, Moritz, Universität Augsburg, [email protected] Heiler, Phillip, Universität Konstanz, [email protected] 175 15.-18. September, Hamburg Statistische Woche 2015 Heilmann, Harald, Stadt Neumünster, [email protected] Heuser, Christoph, Universität zu Köln, [email protected] Hillmann, Benjamin, Christian-Albrechts-Universität zu Kiel, [email protected] Hinterlang, Natascha, Goethe Universität Frankfurt, [email protected] Hirner, Stephanie, Statistisches Bundesamt, [email protected] Hirsch, Tristan, Leibniz Universität Hannover, [email protected] Hofer, Vera, Universität Graz, [email protected] Hoffmann, Elke, Deutsches Zentrum für Altersfragen, DZA, [email protected] Hollweck, Sabrina, Bundesagentur für Arbeit, [email protected] Holzmann, Hajo, Philipps-Universität Marburg, [email protected] Homburg, Annika, Helmut-Schmidt-Universität, [email protected] Hoops, Christian, Ipsos Public Affairs, [email protected] Hötger, Udo, Kreis Lippe - Der Landrat, [email protected] Hower, Kira, Universität Bielefeld, [email protected] Hübler, Olaf, Leibniz Universität Hannover, [email protected] Hüning, Wolfgang, Information und Technik Nordrhein-Westfalen, [email protected] Ihden, Tanja, Universität Bremen, [email protected] Iwanow, Irene, Leibniz-Institut für ökologische Raumentwicklung, [email protected] Jacobi, Lucas, Landeshauptstadt Stuttgart, Statistisches Amt, [email protected] Jäger, Solveigh, BDI, [email protected] Jäger, Armin, Bundesagentur für Arbeit, [email protected] Jansen, Christoph, Institut für Statistik, LMU München, [email protected] Jarawka, Markus, Landeshauptstadt Magdeburg, [email protected] Jentsch, Carsten, Universität Mannheim, [email protected] Johannes, Jan, Crest-Ensai and Université catholique de Louvain, [email protected] Jonen, Alexander, Helmut-Schmidt-Universität Hamburg, [email protected] Jones-Todd, Charlotte Moragh, St Andrews University, [email protected] Kabel, Gunda, Bundesagentur für Arbeit, [email protected] Kahle, Waltraud, Otto-von-Guericke Universität Magdeburg, [email protected] Kaiser, Andreas, Freie und Hansestadt Hamburg, Behörde für Stadtentwicklung und Wohnen, [email protected] 176 Statistische Woche 2015 15.-18. September, Hamburg Kamgar, Saeideh, Allameh Tabataba’i University of IRAN, [email protected] Kappus, Johanna, Universität Rostock, [email protected] Kaselowsky, Jürgen, SAS Institute GmbH, [email protected] Kastner, Marc, Fachhochschule Köln, [email protected] Kauermann, Göran, Ludwig-Maximilians-Universitaet, [email protected] Käuser, Stefanie, Statistisches Bundesamt, [email protected] Kawka, Rafael, Technische Universität Dortmund, [email protected] Kiel, Walter, Hochschule Ansbach, [email protected] Kiesl, Hans, OTH Regensburg, [email protected] Kladroba, Andreas, Stifterverband für die Deutsche Wissenschaft, [email protected] Klauenberg, Katy, Physikalisch-Technische Bundesanstalt, [email protected] Klößner, Stefan, Universität des Saarlandes, [email protected] Klostermann, Tobias, Statistisches Landesamt Baden-Württemberg, [email protected] Knape, Jonas, Swedish University of Agricultural Sciences, [email protected] Knauth, Bettina, Eurostat, [email protected] Knop, Cathrin, Stadtverwaltung Frankfurt (Oder), [email protected] Knoth, Sven, Helmut Schmidt University Hamburg, [email protected] Konrad, Anne, Universität Trier, [email protected] Kopf, Eva, Institut für Arbeitsmarkt- und Berufsforschung, [email protected] Körber, Julian, Otto-Friedrich Universität Bamberg, [email protected] Korn, Claudia, Bundesagentur für Arbeit, [email protected] Körner-Blätgen, Nadine, BBSR, [email protected] Kösler, Markus, Universität Köln, [email protected] Kraft, Volker, SAS Institute GmbH, [email protected] Krämer, Walter, TU Dortmund, [email protected] Kraus, Petra, Hauptverband der Deutschen Bauindustrie e.V., [email protected] Krause, Joscha, Universität Trier, [email protected] Krause, Anja, Statistisches Bundesamt, [email protected] Kretschmann, Hans-Dieter, Statistisches Landesamt des Freistaates Sachsen, [email protected] Krüger, Jonas, Institut für Arbeitsmarkt- und Berufsforschung, [email protected] 177 15.-18. September, Hamburg Statistische Woche 2015 Krumbholz, Wolf, HSU Hamburg, [email protected] Krumbholz-Mai, Sigrid, Statistisches Amt für Hamburg und Schleswig-Holstein, [email protected] Kück, Heidemarie, Bundesagentur für Arbeit, [email protected] Kühn, Aiko, Universität Trier, [email protected] Kuhnt, Sonja, FH Dortmund, [email protected] Kunadt, Susann, Stadt Köln, Amt für Stadtentwicklung und Statistik, [email protected] Labes, Gabriele, Stadt Ratingen, [email protected] Lagona, Francesco, University Roma Tre, [email protected] Landsberg, Helma, Statistikamt Nord, [email protected] Lange, Tatjana, HS Merseburg, [email protected] Langrock, Roland, University of St Andrews, [email protected] Lauer, Alexandra, Universität des Saarlandes, [email protected] Lazariv, Taras, European University Viadrina, [email protected] Leist, Sebastian, Institut für Bildungsmonitoring und Qualitätsentwicklung (BSB/FHH), [email protected] Lenz, Jürgen, Kreis Mettmann, [email protected] Leschinski, Christian, Leibniz Universität Hannover, [email protected] Liboschik, Tobias, Technische Universität Dortmund, [email protected] Liebl, Dominik, Uni Bonn, [email protected] Liebscher, Steffen, Martin-Luther-Universität Halle-Wittenberg, [email protected] Liesenfeld, Roman, Universität zu Köln, [email protected] Liffers, Lutz, Dt. Kinder- und Jugendstiftung, [email protected] Lillo, Rosa E., Universidad Carlos III de Madrid, [email protected] Lüdering, Jochen, Universtät Gießen, [email protected] Lux-Henseler, Barbara, Stadt Nürnberg, [email protected] Mai, Christoph-Martin, Statistisches Bundesamt, [email protected] Maier, Verena, Institut für Statistik LMU München, [email protected] Manner, Hans, Universität zu Köln, [email protected] Mannschreck, Moritz, Statistisches Bundesamt, [email protected] Mareckova, Jana, Universität Konstanz, [email protected] Martone, Olivia, IT.NRW als Statistisches Landesamt, [email protected] 178 Statistische Woche 2015 15.-18. September, Hamburg Mausfeld, Juliana, Statistikamt Nord, [email protected] Mazur, Stepan, Lund University, [email protected] McCrea, Rachel Sara, University of Kent, [email protected] Meer, Uwe, Stadt Wolfsburg, [email protected] Mehrhoff, Jens, Deutsche Bundesbank, [email protected] Meier, Alexander, KIT, [email protected] Meinfelder, Florian, Universität Bamberg, [email protected] Meinke, Stefan, Technische Universität Dortmund, [email protected] Meinken, Holger, Bundesagentur für Arbeit, [email protected] Meister, Alexander, Universität Rostock, [email protected] Mertel, Bettina, Statistisches Bundesamt, [email protected] Merz, Joachim, Leuphana Universität Lüneburg, [email protected] Messer, Michael, Goethe Uni Frankfurt, [email protected] Methner, Eckart, ehemals Landesamt für Statistik Niedersachsen, [email protected] Michel, Nicole, Statistisches Landesamt Baden-Württemberg, [email protected] Michelot, Théo, INSA de Rouen, [email protected] Missong, Martin, Universität Bremen, [email protected] Mittag, Hans-Joachim, FernUniversität Hagen, [email protected] Mohr, Maria, Universität Hamburg, [email protected] Möller, Tobias, Helmut-Schmidt-Universität, [email protected] Möller, Annette, University of Göttingen, [email protected] Morais, Manuel Cabral, Instituto Superior Técnico, [email protected] Morozova, Anastasia, University of Konstanz, [email protected] Mosler, Karl, Universität zu Köln, [email protected] Mozharovskyi, Pavlo, Universität zu Köln, [email protected] Mühlenhaupt, Jörg, IT.NRW, [email protected] Müller, Christine, TU Dortmund, [email protected] Müller, Sebastian Christoph, Universität Kiel, [email protected] Müller, Christian, DAAD, [email protected] Münnich, Ralf, Universität Trier, [email protected] 179 15.-18. September, Hamburg Statistische Woche 2015 Muscheid, Jörg, Arbeitnehmerkammer Bremen, [email protected] Naeve, Eyk-Röttger, Landeshauptstadt Kiel, [email protected] Neuber-Pohl, Caroline, Bundesinstitut für Berufsbildung, [email protected] Neuberg, Richard, Columbia University, [email protected] Neudecker, Klaus, Stadt Regensburg, [email protected] Neumeyer, Natalie, Universität Hamburg, [email protected] Neureiter, Karin, Land Kärnten, [email protected] Neutze, Michael, Statistisches Bundesamt, [email protected] Niebuhr, Tobias, Universität Hamburg, [email protected] Nieto-Reyes, Alicia, Universidad de Cantabria, [email protected] Noll, Susanne, Bundesagentur für Arbeit, BA-Service-Haus, [email protected] Nowossadeck, Enno, Robert Koch-Institut, [email protected] Oemmelen, Guido, microm Micromarketing-Systeme und Consult GmbH, [email protected] Okhrin, Yarema, Universität Augsburg, [email protected] Okhrin, Ostap, TU Dresden, [email protected] Oltmanns, Erich, Statistisches Bundesamt, [email protected] Ombao, Hernando, University of California, Irvine, [email protected] Orth, Anja Katrin, Institut der deutschen Wirtschaft, [email protected] Otto, Philipp, Europa-Universität Viadrina, [email protected] Oezsahin, Ersin, LH Wiesbaden, [email protected] Page, Roman, Statistisches Amt des Kantons Zürich, [email protected] Pape, Markus, Ruhr-Universität Bochum, [email protected] Parolya, Nestor, Leibniz Universität Hannover, [email protected] Parusel, Verena, Bayerisches Landesamt für Statistik, [email protected] Pauger, Daniela, Johannes Kepler Universität Linz, [email protected] Plagens, Manfred, Stadt Würzburg, [email protected] Plennert, Matthias, Friedrich-Alexander Universität Erlangen-Nürnberg, [email protected] Pohlmeier, Winfried, University of Konstanz, [email protected] Pokotylo, Oleksii, Universität zu Köln, [email protected] Polunchenko, Aleksey, State University of New York at Binghamton, [email protected] 180 Statistische Woche 2015 15.-18. September, Hamburg Proksch, Katharina, Universität Siegen, [email protected] Raab, Stefanie, Statistisches Bundesamt, [email protected] Rabyk, Liubov, European University Viadrina Frankfurt (Oder), [email protected] Racine, Jeffrey S., McMaster University, [email protected] Rader, Roman, Ukrainische Technische Nationaluniversität Kiew - KPI, [email protected] Rameseder, Stefan, Universität Regensburg, [email protected] Rasner, Anika, Bundeskanzleramt, [email protected] Rässler, Susanne, Universität Bamberg, [email protected] Reckrühm, Kerstin, Otto-von-Guericke-Universität Magdeburg, Institut für Mathematische Stochastik, [email protected] Reh, Gerd, Statistisches Landesamt Rheinland-Pfalz, [email protected] Rehage, André, TU Dortmund, [email protected] Reinhold, Maria, Czaia Marktforschung GmbH, [email protected] Rendtel, Ulrich, FU Berlin, [email protected] Rengers, Martina, Statistisches Bundesamt, [email protected] Renn, Sandra, Bundesagentur für Arbeit, [email protected] Richter, Josef, Universität Innsbruck, [email protected] Riede, Thomas, Statistisches Bundesamt, [email protected] Rinke, Saskia, Leibniz Universität Hannover, [email protected] Rinn, Maren, Bundesagentur für Arbeit, [email protected] Rockmann, Ulrike, Senatsverwaltung für Inneres und Sport Berlin, [email protected] Rodenhäuser, Dorothee, FEST e. V. Institut für interdisziplinäre Forschung Heidelberg, [email protected] Rohde, Johannes, Leibniz Universität Hannover, [email protected] Rohde, Andreas, Bundesagentur für Arbeit, [email protected] Rohrmüller, Robert, Wirtschaftskammer Niederösterreich, [email protected] Römer, Ellen, Destatis, [email protected] Rommel, Alexander, Robert Koch-Institut, [email protected] Romo, Juan, Universidad Carlos III de Madrid, [email protected] Rosenthal, Philip, Universität Trier, [email protected] Roß, Hermann, Bundesagentur für Arbeit, [email protected] 181 15.-18. September, Hamburg Statistische Woche 2015 Rothe, Christoph, , Rupp, Martin, Universität Trier, [email protected] Salish, Nazarii, University of Bonn, [email protected] Sauerbrey, Lars, Bundesagentur für Arbeit, [email protected] Schäfer, Josef, Information und Technik Nordrhein-Westfalen, [email protected] Schäfer, Wolf, Amt für Stadtforschung und Statistik für Nürnberg und Fürth, [email protected] Schaff, Angela, Statistisches Bundesamt, [email protected] Schäfstoß, Nicolas, BMUB, [email protected] Scharfe, Simone, Statistisches Bundesamt, [email protected] Schefzik, Roman, HITS gGmbH, [email protected] Schell, Dieter, Universität Konstanz, [email protected] Schellhase, Christian, Universität Bielefeld, [email protected] Schels, Helmut, Stadt Ingolstadt, [email protected] Scheuchenpflug, Thomas, Landeshauptstadt München, [email protected] Schieck, Matthias, Stadt Chemnitz, [email protected] Schmerbach, Sibylle, HU Berlin, [email protected] Schmid, Wolfgang, Europa-Universität, [email protected] Schmidt, Peter, Statistisches Bundesamt, [email protected] Schmidt, Arne, Statistisches Bundesamt, [email protected] Schmidt, Ruth, Stadt Leipzig, [email protected] Schmidt, Bernd, Statistisches Bundesamt, [email protected] Schmidt, Rolf, Landesbetrieb Information und Technik Nordrhein-Westfalen (IT.NRW), [email protected] Schmidtke, Kerstin, Forschungsdatenzentren der Statistischen Ämter der Länder, [email protected] Schmitz, Rose, Bundesagentur für Arbeit, [email protected] Schmitz-Veltin, Ansgar, Landeshauptstadt Stuttgart, [email protected] Schnackenburg, André, Statistikamt Nord, [email protected] Schneeweiß, Hans, LMU München, [email protected] Schnegelsberg, Lisiane, Martin-Luther-Universität Halle-Wittenberg, [email protected] Schneid, Sebastian, Amt für Statistik und Stadtforschung Augsburg, [email protected] Schneider, Max, Universität Potsdam, [email protected] 182 Statistische Woche 2015 15.-18. September, Hamburg Schneider, Gaby, Goethe University Frankfurt, [email protected] Schnorr-Bäcker, Susanne, Statistiches Bundesamt, [email protected] Schnurbus, Joachim, Universität Passau, [email protected] Schöb, Anke, Statistisches Amt, [email protected] Scholz, Michael, Karl-Franzens Universität Graz, [email protected] Schomaker, Christine, Statistik der Bundesagentur für Arbeit, [email protected] Schönfeld, Frederike, Statistisches Bundesamt, [email protected] Schreiner, Carsten, Statistisches Bundeamt, [email protected] Schridde, Henning, Statistik der Bundesagentur für Arbeit, [email protected] Schrödter, Dietmar, Statistikamt Nord, [email protected] Schueler, Thomas, HSU/UniBw H, [email protected] Schulmeyer, Rudolf, VDSt Geschäftsstelle Köln, [email protected] Schulte Nordholt, Eric, Statistics Netherlands, [email protected] Schultz, Andrea, Stadt Leipzig, [email protected] Schüssler, Rainer, Helmut-Schmidt University, [email protected] Schwabbacher, Wolfram, Deutsche Gesetzliche Unfallversicherung e.V., [email protected] Schwarz, Norbert, Statistisches Bundesamt, [email protected] Schweinert-Albinus, Stefan, Statistisches Bundesamt, [email protected] Scislo, Christine, Stadt Eisenhüttenstadt, [email protected] Seehase, Anne, Amt für Statistik, Magdeburg, [email protected] Segaert, Pieter, KU Leuven, [email protected] Seidel, Gerald, Bundesagentur für Arbeit, [email protected] Seidel, Christiane, Statistisches Landesamt Baden-Württemberg, [email protected] Seifert, Stefanie, Universität Tübingen, [email protected] Seifert, Miriam Isabel, Helmut Schmidt University Hamburg, [email protected] Seiler, Christian, ifo Institut-Leibniz Institut für Wirtschaftsforschung, [email protected] Sibbertsen, Philipp, Leibniz Universität Hannover, [email protected] Sittler, Loring, Generali Deutschland Holding AG, [email protected] Söllner, René, Statistisches Bundesamt, [email protected] Sommer, Andreas, RWTH Aachen, [email protected] 183 15.-18. September, Hamburg Statistische Woche 2015 Spandel, Michael, Amt für Statistik Magdeburg, [email protected] Speich, Wolf-Dietmar, Statistisches Landesamt des Freistaates Sachsen, [email protected] Stäglin, Reiner, DIW Berlin, [email protected] Stärk, Doris, Statistisches Bundesamt, [email protected] Steland, Ansgar, RWTH Aachen, [email protected] Stephan, Andreas, Jönköping International Business School, [email protected] Stöhr, Christina, Otto-von-Guericke Universität Magdeburg, [email protected] Strohe, Hans Gerhard, Uniwersytet Opolsky, [email protected] Strohner, Benjamin, Universität Rostock, [email protected] Sturm, Gabriele, BBSR - Bundesinstitut für Bau-, Stadt- und Raumforschung, [email protected] Stypka, Oliver, Technische Universität Dortmund, [email protected] Suter, Flavia, Institut für Bildungsmonitoring und Qualitätsentwicklung, BSB, FHH, [email protected] Syuhada, Khreshna, Institut Teknologi Bandung, [email protected] Szugat, Sebastian, Technische Universität Dortmund, [email protected] Tadjuidje Kamgaing, Joseph, University of Heidelberg, [email protected] Thalheimer, Frank, Statistisches Landesamt Baden-Württemberg, [email protected] Then, Ralf, Stadt Nürnberg, [email protected] Thiemichen, Stephanie, LMU München, [email protected] Thomsen, Ulrich, Institut fuer Arbeitsmarkt- und Berufsforschung (IAB), [email protected] Tietje, Hendrik, Statistikamt Nord, [email protected] Titova, Anna, Christian-Albrechts-Universität zu Kiel, [email protected] Tobies, Stephanie, Statistisches Bundesamt, [email protected] Torgovitski, Leonid, Mathematisches Institut der Universität zu Köln, [email protected] Trabs, Mathias, Humboldt-Universität zu Berlin, [email protected] Tschernig, Rolf, Universität Regensburg, [email protected] Unger, Rainer, SOCIUM Forschungsinstitut Ungleichheit und Sozialpolitik, [email protected] Vatter, Yvonne, Statistisches Bundesamt, [email protected] Vencalek, Ondrej, Palacky University in Olomouc, [email protected] Venghaus, Jürgen, Stadt Herne - Statistikstelle, [email protected] Victor, Hubert, Stadt Düren, [email protected] 184 Statistische Woche 2015 15.-18. September, Hamburg Virbickaite, Audrone, University of Konstanz, [email protected] Vogel, Alexander, Statistikamt Nord, [email protected] Vogler, Jan, Universität Köln, [email protected] vom Sondern, Manfred, Stadt Gelsenkirchen, [email protected] von der Heyde, Christian, ARGE ADM-Stichproben, [email protected] von Oppeln-Bronikowski, Sibylle, Statististisches Bundesamt, [email protected] von Sachs, Rainer, Université catholique de Louvain, [email protected] Wagner, Martin, Technische Universität Dortmund, [email protected] Wagner, Joachim, Universität Lüneburg, [email protected] Walla, Florian, Uni Konstanz, [email protected] Weber, Silke, Karlsruher Institut für Technologie (KIT), [email protected] Wegener, Christoph, Center for Risk and Insurance, [email protected] Weiß, Christian, Helmut-Schmidt-Universität Hamburg, [email protected] Weißbrodt, Thomas, Bundesagentur für Arbeit, [email protected] Wendler, Martin, Erst-Moritz-Arndt-Universität Greifswald, [email protected] Wenzel, Jürgen, Landeshauptstadt Mainz, [email protected] Werner, Andrea, Bundesagentur für Arbeit, [email protected] Westphal, Christian, , [email protected] Wiechers, Ralph, VDMA, [email protected] Wiese, Kathrin, BIK Aschpurwis + Behrens GmbH, [email protected] Wilke, Jürgen, ehemals GESIS Köln, [email protected] Will, Michael, Institut für Statistik Leibniz Universität Hannover, [email protected] Wilrich, Peter-Th., Freie Universität Berlin, [email protected] Winck, Gerhardt, Statistikamt Nord, [email protected] Wittig, Jürgen, Magistrat der Stadt Kassel, [email protected] Wohlfahrt, Sven, Statistikamt Nord, [email protected] Woodall, Bill, VirginiaTech University, Woste, Andreas, Bundesagentur für Arbeit, [email protected] Wübbeler, Gerd, Physikalische-Technische Bundesanstalt, [email protected] Wyrwoll, Jana, Bundesagentur für Arbeit, [email protected] 185 15.-18. September, Hamburg Statistische Woche 2015 Zagidullina, Aygul, University of Konstanz, [email protected] Zemann, Christian, Bundesagentur für Arbeit, [email protected] Zeng, Jing, University of Konstanz, [email protected] Ziel, Florian, Europa-Universität Viadrina, [email protected] Zipse, Christian, Statistisches Bundesamt, [email protected] 186