Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Indikatoren sollen der Steuerung von (sozialen) Prozessen dienen. Sie beschreiben jedoch die Realität in der Regel nur deskriptiv und unvermeidlich mit mehr oder weniger großen und systematischen Messfehlern behaftet. Insofern ist es im Allgemeinen alles andere als einfach mit Hilfe von Indikatoren zu steuern; insbesondere dann, wenn für Problembereiche (fehlerbehaftete) Zielwerte vorgegeben werden, für deren Erreichung die Indikatoren keine kausalen Pfade aufzeigen. Am Beispiel der Corona-Pandemie werden statistisch-methodische Probleme von (sozialen) Indikatoren aufgezeigt und auf ein zentrales Defizit der vorhandenen bzw. rasch entwickelten Pandemie-Indikatoren hingewiesen: fehlende Indikatoren für Instrumente der Risikokommunikation. Als eine positive Nebenwirkung der Pandemie wird die verbesserte „statistical literacy“ hervorgehoben und diskutiert. PubDate: 2022-11-21 DOI: 10.1007/s11943-022-00314-6
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Im Jahr 2021 wurde die emissionsabhängige Komponente der Kfz-Steuer angepasst und progressiv gestaltet, sodass sich die Steuerbelastung für Fahrzeuge mit hoher Emissionsintensität überproportional erhöht hat. Vor diesem Hintergrund analysiert dieser Beitrag die Effektivität der reformierten Kfz-Steuer in Bezug auf ihre Lenkungswirkung und ihr Einsparpotential an Kohlendioxid (CO2) mit Hilfe des Nachfragemodells von Berry et al. (1995). Dieses Modell ermöglicht eine realitätsnähere Darstellung der Nachfrageseite als Conditional- oder Nested-Logit-Modelle. Unsere Schätzergebnisse zeigen, dass infolge der Reform jährlich ungefähr 21.000 Autos weniger verkauft werden dürften, die mittlere CO2-Intensität sich um 0,74 g/km verringert und der jährliche CO2-Ausstoß neu gekaufter Fahrzeuge um rund 60.000 t sinken könnte. Diese geringen Effekte sind intuitiv verständlich: Eine durchschnittliche Steuererhöhung von rund 11 € pro Jahr entfaltet nicht die Lenkungswirkung, derer es bedarf, um die Emissionen substanziell zu senken. Unsere Simulationsergebnisse einer fiktiven Kfz-Besteuerung mit stärker progressiven Steuersätzen, die eine mittlere Steuererhöhung von ca. 90 € zur Folge hätte, zeigen: Dies würde deutlich stärkere Effekte haben und die durchschnittlichen spezifischen CO2-Emissionen neuer Autos um gut 5 g/km senken sowie die Anzahl an Neuzulassungen um rund 195.000 Pkw. Dadurch könnten jährlich rund 450.000 t CO2 eingespart werden. Verglichen mit den jährlichen Emissionen der Autoflotte in Deutschland von ca. 100 Mio. Tonnen wären aber selbst die Effekte der fiktiven Kfz-Besteuerung mit höheren Steuersätzen recht begrenzt. PubDate: 2022-11-21 DOI: 10.1007/s11943-022-00310-w
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Abstract Health insurance is important in disease management, access to quality health care and attaining Universal Health Care. National and regional data on health insurance coverage needed for policy making is mostly obtained from household surveys; however, estimates at lower administrative units like at the county level in Kenya are highly variable due to small sample sizes. Small area estimation combines survey and census data using a model to increases the effective sample size and therefore provides more precise estimates. In this study we estimate the health insurance coverage for Kenyan counties using a binary M‑quantile small area model for women \((n=14{,}730)\) and men \((n=12{,}007)\) aged 15 to 49 years old. This has the advantage that we avoid specifying the distribution of the random effects and distributional robustness is automatically achieved. The response variable is derived from the Kenya Demographic and Health Survey 2014 and auxiliary data from the Kenya Population and Housing Census 2009. We estimate the mean squared error using an analytical approach based on Taylor series linearization. The national direct health insurance coverage estimates are \(18\%\) and \(21\%\) for women and men respectively. With the current health insurance schemes, coverage remains low across the 47 counties. These county-level estimates are helpful in formulating decentralized policies and funding models. PubDate: 2022-11-14 DOI: 10.1007/s11943-022-00312-8
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Abstract Statisticians and data scientists transform raw data into understanding and insight. Ideally, these insights empower people to act and make better decisions. However, data is often misleading especially when trying to draw conclusions about causality (for example, Simpson’s paradox). Therefore, developing causal thinking in undergraduate statistics and data science programs is important. However, there is very little guidance in the education literature about what topics and learning outcomes, specific to causality, are most important. In this paper, we propose a causality curriculum for undergraduate statistics and data science programs. Students should be able to think causally, which is defined as a broad pattern of thinking that enables individuals to appropriately assess claims of causality based upon statistical evidence. They should understand how the data generating process affects their conclusions and how to incorporate knowledge from subject matter experts in areas of application. Important topics in causality for the undergraduate curriculum include the potential outcomes framework and counterfactuals, measures of association versus causal effects, confounding, causal diagrams, and methods for estimating causal effects. PubDate: 2022-11-09 DOI: 10.1007/s11943-022-00311-9
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Die Stille Reserve ist eine bedeutende Größe in der Arbeitsmarktberichterstattung, die sich nicht unmittelbar beobachten lässt. Es existieren unterschiedliche Konzepte bezüglich Definition, Datengewinnung und Blickwinkel auf den Arbeitsmarkt, mit denen eine Stille Reserve ermittelt wird. Der vorliegende Beitrag vergleicht die Schätzung der Stillen Reserve beim Statistischen Bundesamt (StBA) mit der beim Institut für Arbeitsmarkt- und Berufsforschung (IAB). Das Statistische Bundesamt schätzt sie aus einer mikroökonomischen Perspektive heraus und schließt aus Angaben von Befragten des Mikrozensus beziehungsweise der darin integrierten Arbeitskräfteerhebung auf die Zugehörigkeit zur Stillen Reserve. Zur Anwendung kommt dabei das Labour-Force-Konzept der Internationalen Arbeitsorganisation. Danach gehören zur Stillen Reserve zum einen Personen, die aktiv eine Arbeit suchen, für eine solche aber kurzfristig nicht zur Verfügung stehen und zum anderen Personen, die aktuell keine Arbeit suchen, aber grundsätzlich gerne arbeiten würden und dafür auch verfügbar sind. Das Institut für Arbeitsmarkt- und Berufsforschung schätzt die Stille Reserve aus einer makroökonomischen Perspektive unmittelbar aufgrund der jeweiligen Arbeitsmarktlage. In einem regressionsanalytischen Modell wird zuerst die Abhängigkeit einer langen Zeitreihe der Erwerbsquoten von der Arbeitsmarktlage geschätzt. Dabei ist die Datengrundlage der Erwerbsquoten zum einen der Mikrozensus, während die Lage des Arbeitsmarktes unter anderem über Quoten von registrierten Arbeitslosen der Bundesagentur für Arbeit abgebildet wird. Darüber hinaus wird ein sogenannter „Vollbeschäftigungswert“ für diese Arbeitslosenquoten ermittelt und die Stille Reserve als Folge der Anspannung am Arbeitsmarkt interpretiert, das heißt, je mehr die Vollbeschäftigungsarbeitslosigkeit vom tatsächlichen Wert abweicht, umso höher ist die Stille Reserve. Hinsichtlich der Ergebnisse zur Stillen Reserve war die vom Institut für Arbeitsmarkt- und Berufsforschung geschätzte Stille Reserve in früheren Jahren immer etwas umfangreicher als die des Statistischen Bundesamtes. Die Differenzen sanken jedoch, bis schließlich für 2019 beide Ergebnisse mit jeweils knapp 900.000 Personen nahezu gleichauf lagen. PubDate: 2022-07-28 DOI: 10.1007/s11943-022-00309-3
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Die Statistik als fachliche Disziplin muss sich in einem rasch wandelnden Umfeld behaupten, das durch den Aufstieg der Data Science, den Bedeutungszuwachs der künstlichen Intelligenz sowie neue Datenstrukturen charakterisiert wird. Wie kann sich die Statistik hier behaupten oder verlorenes Terrain wiedergewinnen' Unter dem provokanten Motto „Make Statistics great again“ wurden aus verschiedenen Blickwinkeln Entwicklungen, Strategien und positive Beispiele skizziert, wie sich das Fach Statistik an der Universität, im Wissenschaftsbetrieb und auf dem Arbeitsmarkt positionieren sollte. Willi Seidel schaut aus dem Blickwinkel eines Hochschulpräsidenten auf den Ressourcenkampf der Fächer. Christine Müller berichtet über die Initiativen der Dachorganisation DAGStat die vielen Teildisziplinen der Statistik wirkungsvoll im Wissenschaftsbetrieb und in der Öffentlichkeit zu positionieren. Florian Meinfelder dokumentiert den Aufstieg des Masterstudiengangs in Survey Statistik zu einem der nachgefragtesten Studiengänge der Uni Bamberg. Jürgen Chlumsky und Markus Zwick beleuchten die historische Wahrnehmung der Amtsstatistik bei Pflichterhebungen und die Entwicklung der Forschungsdatenzentren sowie moderner Zugänge zu neuen Datenquellen. Joachim Wagner schildert das Verhältnis von Datenproduzenten und Datennutzern aus der Sicht eines unzufriedenen Datennutzers. Schließlich geht es um die Position der Statistik in der Datenwissenschaft. Ist „Data Science“ nur ein neumodisches Wort für Statistik' Ein Konzeptionspapier der Gesellschaft für Informatik (GI) hat zu Positionspapieren der DStatG und der DAGStat geführt, die von Ulrich Rendtel vorgestellt werden. Das Kolloquium fand anlässlich der Abschiedsvorlesung von Ulrich Rendtel im Juni 2019 am Fachbereich Wirtschaftswissenschaft der Freien Universität statt. PubDate: 2022-05-19 DOI: 10.1007/s11943-022-00305-7
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Abstract In this short note, we apply the method of De Nicola et al. (2022) to the most recent available data, thereby providing up-to-date estimates of all-cause excess mortality in Germany for 2021. The analysis reveals a preliminary excess mortality of approximately 2.3% for the calendar year considered. The excess is mainly driven by significantly higher excess mortality in the 60-79 age group. PubDate: 2022-03-15 DOI: 10.1007/s11943-022-00303-9
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Um die Potentiale der Mikrosimulation als ein Instrument zur Analyse zukünftiger Versorgungslagen in verschiedenen (sozialpolitischen) Bereichen aufzuzeigen, wurde am Beispiel der Stadt Trier eine Mikrosimulationsstudie durchgeführt, bei der der Einfluss unterschiedlicher Wanderungsszenarien auf die Situation der Grundschülerinnen und Grundschüler im Stadtgebiet untersucht wurde. Die Datenbasis stellt eine synthetische Grundgesamtheit der Bevölkerung auf Basis der Zensusergebnisse 2011 dar, welche mit Hilfe von Zensusgitterzellen geografisch im Stadtgebiet verortet und modellbasiert in die Zukunft fortgeschrieben wurde. Außerdem liegen für Trier für die Jahre 2011 bis 2018 präzise Zahlen zu Schülerinnen und Schülern der Elementarstufe vor, an denen nicht nur die Simulationsgesamtheit konfiguriert werden kann, sondern die auch als zentrale Benchmarks für die Validität der Fortschreibungsmodule und –Parameter dienen können. PubDate: 2022-02-17 DOI: 10.1007/s11943-022-00301-x
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Abstract Coronavirus disease 2019 (COVID-19) is associated with a very high number of casualties in the general population. Assessing the exact magnitude of this number is a non-trivial problem, as relying only on officially reported COVID-19 associated fatalities runs the risk of incurring in several kinds of biases. One of the ways to approach the issue is to compare overall mortality during the pandemic with expected mortality computed using the observed mortality figures of previous years. In this paper, we build on existing methodology and propose two ways to compute expected as well as excess mortality, namely at the weekly and at the yearly level. Particular focus is put on the role of age, which plays a central part in both COVID-19-associated and overall mortality. We illustrate our methods by making use of age-stratified mortality data from the years 2016 to 2020 in Germany to compute age group-specific excess mortality during the COVID-19 pandemic in 2020. PubDate: 2022-01-10 DOI: 10.1007/s11943-021-00297-w
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Abstract Composite spatial data on administrative area level are often presented by maps. The aim is to detect regional differences in the concentration of subpopulations, like elderly persons, ethnic minorities, low-educated persons, voters of a political party or persons with a certain disease. Thematic collections of such maps are presented in different atlases. The standard presentation is by Choropleth maps where each administrative unit is represented by a single value. These maps can be criticized under three aspects: the implicit assumption of a uniform distribution within the area, the instability of the resulting map with respect to a change of the reference area and the discontinuities of the maps at the borderlines of the reference areas which inhibit the detection of regional clusters. In order to address these problems we use a density approach in the construction of maps. This approach does not enforce a local uniform distribution. It does not depend on a specific choice of area reference system and there are no discontinuities in the displayed maps. A standard estimation procedure of densities are Kernel density estimates. However, these estimates need the geo-coordinates of the single units which are not at disposal as we have only access to the aggregates of some area system. To overcome this hurdle, we use a statistical simulation concept. This can be interpreted as a Simulated Expectation Maximisation (SEM) algorithm of Celeux et al (1996). We simulate observations from the current density estimates which are consistent with the aggregation information (S-step). Then we apply the Kernel density estimator to the simulated sample which gives the next density estimate (E-Step). This concept has been first applied for grid data with rectangular areas, see Groß et al (2017), for the display of ethnic minorities. In a second application we demonstrated the use of this approach for the so-called “change of support” (Bradley et al 2016) problem. Here Groß et al (2020) used the SEM algorithm to recalculate case numbers between non-hierarchical administrative area systems. Recently Rendtel et al (2021) applied the SEM algorithm to display spatial-temporal clusters of Corona infections in Germany. Here we present three modifications of the basic SEM algorithm: 1) We introduce a boundary correction which removes the underestimation of kernel density estimates at the borders of the population area. 2) We recognize unsettled areas, like lakes, parks and industrial areas, in the computation of the kernel density. 3) We adapt the SEM algorithm for the computation of local percentages which are important especially in voting analysis. We evaluate our approach against several standard maps by means of the local voting register with known addresses. In the empirical part we apply our approach for the display of voting results for the 2016 election of the Berlin parliament. We contrast our results against Choropleth maps and show new possibilities for reporting spatial voting results. PubDate: 2021-12-23 DOI: 10.1007/s11943-021-00298-9
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Die Weltgesundheitsorganisation (WHO) hat im Frühjahr 2020 Richtlinien für Bevölkerungsstichproben veröffentlicht, die Basisdaten für gesundheitspolitische Entscheidungen im Pandemiefall liefern können. Diese Richtlinien umzusetzen ist keineswegs trivial. In diesem Beitrag schildern wir die Herausforderungen einer entsprechenden statistischen Erfassung der Corona Pandemie. Hierbei gehen wir im ersten Teil auf die Erfassung der Dunkelziffer bei der Meldung von Corona Infektionen, die Messung von Krankheitsverläufen im außerklinischen Bereich, die Messung von Risikomerkmalen sowie die Erfassung von zeitlichen und regionalen Veränderungen der Pandemie-Intensität ein. Wir diskutieren verschiedene Möglichkeiten, aber auch praktische Grenzen der Survey-Statistik, den vielfältigen Herausforderungen durch eine geeignete Anlage der Stichprobe und des Survey-Designs zu begegnen. Ein zentraler Punkt ist die schwierige Koppelung medizinischer Tests mit bevölkerungsrepräsentativen Umfragen, wobei bei einer personalisierten Rückmeldung der Testergebnisse das Statistik-Geheimnis eine besondere Herausforderung darstellt. Im zweiten Teil berichten wir wie eine der großen Wiederholungsbefragungen in Deutschland, das Sozio-oekonomische Panel (SOEP), für eine WHO-konforme Covid-19-Erhebung genutzt wird, die im Rahmen einer Kooperation des Robert-Koch-Instituts (RKI) mit dem SOEP als „RKI-SOEP Stichprobe“ im September 2020 gestartet wurde. Erste Ergebnisse zum Rücklauf dieser Studie, die ab Oktober 2021 mit einer zweiten Erhebungswelle bei denselben Personen fortgesetzt werden wird, werden vorgestellt. Es zeigt sich, dass knapp fünf Prozent der bereits in der Vergangenheit erfolgreich Befragten aufgrund der Anfrage zwei Tests zu machen die weitere Teilnahme an der SOEP-Studie verweigern. Berücksichtigt man alle in der Studie erhobenen Informationen (IgG-Antikörper-Tests, PCR-Tests und Fragebögen) ergibt eine erste Schätzung, dass sich bis November 2020 nur etwa zwei Prozent der in Privathaushalten lebenden Erwachsenen in Deutschland mit SARS-CoV‑2 infiziert hatten. Damit war die Zahl der Infektionen etwa doppelt so hoch wie die offiziell gemeldeten Infektionszahlen. PubDate: 2021-12-09 DOI: 10.1007/s11943-021-00296-x