Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Die Bereitschaft, freiwillige Zahlungen zum Ausgleich von Emissionen an Kohlendioxid (CO2) zu leisten, hat in den vergangenen Jahren erheblich zugenommen. Eine Möglichkeit, diese Kompensationsbereitschaft weiter zu erhöhen, besteht in der Aktivierung einer sozialen Norm, indem darauf aufmerksam gemacht wird, dass ein Emissionsausgleich gesellschaftlich erwünscht ist. Vor diesem Hintergrund untersucht dieser Beitrag die Bereitschaft, die durch Flugreisen verursachten CO2-Emissionen durch den Kauf von Ausgleichszertifikaten zu kompensieren anhand eines diskreten Entscheidungsexperimentes, das in eine Erhebung aus dem Jahr 2019 eingebettet wurde. Dabei wurde eine deskriptive soziale Norm in zufälliger Weise vorgegeben, ebenso wie eine von drei Kompensationshöhen von 5, 10 oder 15 €. Im Ergebnis zeigt sich, dass 57,0 % der Probanden sich dafür entscheiden, die Emissionen eines künftig anstehenden Fluges auszugleichen. Hierbei finden sich nur geringe, statistisch nicht signifikante Unterschiede zwischen der Kontrollgruppe und der Gruppe, die mit einer sozialen Norm konfrontiert wurde. PubDate: 2023-05-09
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Mit der Einführung des allgemeinen gesetzlichen Mindestlohnes zum 1. Januar 2015 stieg der Bedarf an geeigneten Daten für die Evaluation der Mindestlohnwirkungen. Die Mindestlohnkommission empfahl daher in ihrem ersten Bericht an die Bundesregierung die Verknüpfung der Integrierten Erwerbsbiografien mit der Verdienststrukturerhebung. Die Paneldaten der Integrierten Erwerbsbiografien sollen durch die Verknüpfung mit ansonsten fehlenden Angaben zum Bruttostundenverdienst bzw. zur Mindestlohnbetroffenheit aus der Verdienststrukturerhebung angereichert werden, um so die Analysemöglichkeiten zu verbessern. Sowohl ein deterministisches als auch ein probabilistisches Record Linkage waren aus rechtlichen Gründen nicht umsetzbar. Daher hat das Statistische Bundesamt die Option einer Anreicherung der Integrierten Erwerbsbiografien mit Informationen zur Mindestlohnbetroffenheit aus der Verdienststrukturerhebung auch mittels maschineller Lernverfahren geprüft. Im Fokus standen die Methoden „Random Forest“ und „Boosting“, die keine Verknüpfung oder Weitergabe von Einzeldatensätzen erfordern und daher datenschutzrechtlich handhabbar sind. Über die konkrete Vorgehensweise, speziell die getesteten Modellierungsvarianten für die Teilpopulationen Vollzeit‑, Teilzeit- und geringfügig entlohnte Beschäftigte, wird in diesem Beitrag ausführlich berichtet. Die vorliegende Untersuchung hat gezeigt, dass entsprechende Modelle prinzipiell erlernbar sind und es somit grundsätzlich möglich ist, die Integrierten Erwerbsbiografien um eine Angabe zur Mindestlohnbetroffenheit zu ergänzen. Deutlich erkennbar wurde im Zuge der Untersuchungen aber auch der Zielkonflikt zwischen Sensitivität und positivem Vorhersagewert, das heißt der Konflikt zwischen dem Ziel, möglichst alle vom Mindestlohn betroffenen Beschäftigten als solche zu klassifizieren, und dem Ziel, bei dieser Klassifikation möglichst keine vom Mindestlohn nicht betroffenen Beschäftigten, irrtümlich als „vom Mindestlohn betroffen“ zu kennzeichnen. In der Praxis muss diesem Zielkonflikt bei der Auswahl der eingesetzten Modelle in Abhängigkeit vom angestrebten Analysezweck Rechnung getragen werden. Ob, wann und wie die Resultate der vorliegenden Untersuchung in den Integrierten Erwerbsbiografien konkret umgesetzt werden können, bedarf weiterer Untersuchungen und Festlegungen. PubDate: 2023-04-24
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Kleinräumige und aktuelle Bevölkerungszahlen sind für politische Entscheidungsfindungen unerlässlich. Die Bevölkerungsfortschreibung ermöglicht die Angabe aktueller Einwohnerzahlen auf geografischer Ebene der Gemeinden. Die Einwohnerzahl wird hierbei auf Basis des Zensus 2011 anhand von Angaben der Statistiken zu Geburten und Sterbefällen sowie der Wanderungsstatistik laufend fortgeschrieben. Um den wachsenden Bedarf an kleinräumigeren Bevölkerungszahlen kurzfristig zu decken, wird die Bevölkerungsfortschreibung mit einem neuen experimentellen Lösungsansatz ergänzt. Im Projekt Experimentelle georeferenzierte Bevölkerungszahl auf Basis der Bevölkerungsfortschreibung und Mobilfunkdaten werden im Rahmen eines Verteilungsverfahrens die Ergebnisse der Bevölkerungsfortschreibung von der Gemeindeebene anhand von Mobilfunkdaten bundesweit auf INSPIRE-konforme 1 × 1 km Gitterzellen umverteilt und mittels einer interaktiven Karte frei nutzbar zur Verfügung gestellt. Mobilfunkdaten bieten aufgrund ihres starken Zusammenhangs mit der Bevölkerungsverteilung sowie ihrer hohen zeitlichen und räumlichen Auflösung eine geeignete Datengrundlage für die kleinräumige Verteilung der amtlichen Einwohnerzahl. Auf Basis zusätzlicher Geodaten der deutschen Landesvermessung, wie bspw. dem Landbedeckungsmodell für Deutschland, werden die resultierenden experimentellen georeferenzierten Bevölkerungszahlen auf Plausibilität geprüft und Verbesserungen in der Mobilfunkdatenaufbereitung hergeleitet und umgesetzt. Im Ergebnis resultieren bundesweit experimentelle georeferenzierte Bevölkerungszahlen, die in urbanen, dicht besiedelten Regionen plausibel erscheinen, jedoch im ländlichen, weniger dicht besiedelten Raum zu systematischen Fehlschätzungen neigen. PubDate: 2023-04-24
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Indikatoren sollen der Steuerung von (sozialen) Prozessen dienen. Sie beschreiben jedoch die Realität in der Regel nur deskriptiv und unvermeidlich mit mehr oder weniger großen und systematischen Messfehlern behaftet. Insofern ist es im Allgemeinen alles andere als einfach mit Hilfe von Indikatoren zu steuern; insbesondere dann, wenn für Problembereiche (fehlerbehaftete) Zielwerte vorgegeben werden, für deren Erreichung die Indikatoren keine kausalen Pfade aufzeigen. Am Beispiel der Corona-Pandemie werden statistisch-methodische Probleme von (sozialen) Indikatoren aufgezeigt und auf ein zentrales Defizit der vorhandenen bzw. rasch entwickelten Pandemie-Indikatoren hingewiesen: fehlende Indikatoren für Instrumente der Risikokommunikation. Als eine positive Nebenwirkung der Pandemie wird die verbesserte „statistical literacy“ hervorgehoben und diskutiert. PubDate: 2022-11-21 DOI: 10.1007/s11943-022-00314-6
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Im Jahr 2021 wurde die emissionsabhängige Komponente der Kfz-Steuer angepasst und progressiv gestaltet, sodass sich die Steuerbelastung für Fahrzeuge mit hoher Emissionsintensität überproportional erhöht hat. Vor diesem Hintergrund analysiert dieser Beitrag die Effektivität der reformierten Kfz-Steuer in Bezug auf ihre Lenkungswirkung und ihr Einsparpotential an Kohlendioxid (CO2) mit Hilfe des Nachfragemodells von Berry et al. (1995). Dieses Modell ermöglicht eine realitätsnähere Darstellung der Nachfrageseite als Conditional- oder Nested-Logit-Modelle. Unsere Schätzergebnisse zeigen, dass infolge der Reform jährlich ungefähr 21.000 Autos weniger verkauft werden dürften, die mittlere CO2-Intensität sich um 0,74 g/km verringert und der jährliche CO2-Ausstoß neu gekaufter Fahrzeuge um rund 60.000 t sinken könnte. Diese geringen Effekte sind intuitiv verständlich: Eine durchschnittliche Steuererhöhung von rund 11 € pro Jahr entfaltet nicht die Lenkungswirkung, derer es bedarf, um die Emissionen substanziell zu senken. Unsere Simulationsergebnisse einer fiktiven Kfz-Besteuerung mit stärker progressiven Steuersätzen, die eine mittlere Steuererhöhung von ca. 90 € zur Folge hätte, zeigen: Dies würde deutlich stärkere Effekte haben und die durchschnittlichen spezifischen CO2-Emissionen neuer Autos um gut 5 g/km senken sowie die Anzahl an Neuzulassungen um rund 195.000 Pkw. Dadurch könnten jährlich rund 450.000 t CO2 eingespart werden. Verglichen mit den jährlichen Emissionen der Autoflotte in Deutschland von ca. 100 Mio. Tonnen wären aber selbst die Effekte der fiktiven Kfz-Besteuerung mit höheren Steuersätzen recht begrenzt. PubDate: 2022-11-21 DOI: 10.1007/s11943-022-00310-w
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Health insurance is important in disease management, access to quality health care and attaining Universal Health Care. National and regional data on health insurance coverage needed for policy making is mostly obtained from household surveys; however, estimates at lower administrative units like at the county level in Kenya are highly variable due to small sample sizes. Small area estimation combines survey and census data using a model to increases the effective sample size and therefore provides more precise estimates. In this study we estimate the health insurance coverage for Kenyan counties using a binary M‑quantile small area model for women \((n=14{,}730)\) and men \((n=12{,}007)\) aged 15 to 49 years old. This has the advantage that we avoid specifying the distribution of the random effects and distributional robustness is automatically achieved. The response variable is derived from the Kenya Demographic and Health Survey 2014 and auxiliary data from the Kenya Population and Housing Census 2009. We estimate the mean squared error using an analytical approach based on Taylor series linearization. The national direct health insurance coverage estimates are \(18\%\) and \(21\%\) for women and men respectively. With the current health insurance schemes, coverage remains low across the 47 counties. These county-level estimates are helpful in formulating decentralized policies and funding models. PubDate: 2022-11-14 DOI: 10.1007/s11943-022-00312-8
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Statisticians and data scientists transform raw data into understanding and insight. Ideally, these insights empower people to act and make better decisions. However, data is often misleading especially when trying to draw conclusions about causality (for example, Simpson’s paradox). Therefore, developing causal thinking in undergraduate statistics and data science programs is important. However, there is very little guidance in the education literature about what topics and learning outcomes, specific to causality, are most important. In this paper, we propose a causality curriculum for undergraduate statistics and data science programs. Students should be able to think causally, which is defined as a broad pattern of thinking that enables individuals to appropriately assess claims of causality based upon statistical evidence. They should understand how the data generating process affects their conclusions and how to incorporate knowledge from subject matter experts in areas of application. Important topics in causality for the undergraduate curriculum include the potential outcomes framework and counterfactuals, measures of association versus causal effects, confounding, causal diagrams, and methods for estimating causal effects. PubDate: 2022-11-09 DOI: 10.1007/s11943-022-00311-9
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Die Stille Reserve ist eine bedeutende Größe in der Arbeitsmarktberichterstattung, die sich nicht unmittelbar beobachten lässt. Es existieren unterschiedliche Konzepte bezüglich Definition, Datengewinnung und Blickwinkel auf den Arbeitsmarkt, mit denen eine Stille Reserve ermittelt wird. Der vorliegende Beitrag vergleicht die Schätzung der Stillen Reserve beim Statistischen Bundesamt (StBA) mit der beim Institut für Arbeitsmarkt- und Berufsforschung (IAB). Das Statistische Bundesamt schätzt sie aus einer mikroökonomischen Perspektive heraus und schließt aus Angaben von Befragten des Mikrozensus beziehungsweise der darin integrierten Arbeitskräfteerhebung auf die Zugehörigkeit zur Stillen Reserve. Zur Anwendung kommt dabei das Labour-Force-Konzept der Internationalen Arbeitsorganisation. Danach gehören zur Stillen Reserve zum einen Personen, die aktiv eine Arbeit suchen, für eine solche aber kurzfristig nicht zur Verfügung stehen und zum anderen Personen, die aktuell keine Arbeit suchen, aber grundsätzlich gerne arbeiten würden und dafür auch verfügbar sind. Das Institut für Arbeitsmarkt- und Berufsforschung schätzt die Stille Reserve aus einer makroökonomischen Perspektive unmittelbar aufgrund der jeweiligen Arbeitsmarktlage. In einem regressionsanalytischen Modell wird zuerst die Abhängigkeit einer langen Zeitreihe der Erwerbsquoten von der Arbeitsmarktlage geschätzt. Dabei ist die Datengrundlage der Erwerbsquoten zum einen der Mikrozensus, während die Lage des Arbeitsmarktes unter anderem über Quoten von registrierten Arbeitslosen der Bundesagentur für Arbeit abgebildet wird. Darüber hinaus wird ein sogenannter „Vollbeschäftigungswert“ für diese Arbeitslosenquoten ermittelt und die Stille Reserve als Folge der Anspannung am Arbeitsmarkt interpretiert, das heißt, je mehr die Vollbeschäftigungsarbeitslosigkeit vom tatsächlichen Wert abweicht, umso höher ist die Stille Reserve. Hinsichtlich der Ergebnisse zur Stillen Reserve war die vom Institut für Arbeitsmarkt- und Berufsforschung geschätzte Stille Reserve in früheren Jahren immer etwas umfangreicher als die des Statistischen Bundesamtes. Die Differenzen sanken jedoch, bis schließlich für 2019 beide Ergebnisse mit jeweils knapp 900.000 Personen nahezu gleichauf lagen. PubDate: 2022-07-28 DOI: 10.1007/s11943-022-00309-3
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Die Statistik als fachliche Disziplin muss sich in einem rasch wandelnden Umfeld behaupten, das durch den Aufstieg der Data Science, den Bedeutungszuwachs der künstlichen Intelligenz sowie neue Datenstrukturen charakterisiert wird. Wie kann sich die Statistik hier behaupten oder verlorenes Terrain wiedergewinnen' Unter dem provokanten Motto „Make Statistics great again“ wurden aus verschiedenen Blickwinkeln Entwicklungen, Strategien und positive Beispiele skizziert, wie sich das Fach Statistik an der Universität, im Wissenschaftsbetrieb und auf dem Arbeitsmarkt positionieren sollte. Willi Seidel schaut aus dem Blickwinkel eines Hochschulpräsidenten auf den Ressourcenkampf der Fächer. Christine Müller berichtet über die Initiativen der Dachorganisation DAGStat die vielen Teildisziplinen der Statistik wirkungsvoll im Wissenschaftsbetrieb und in der Öffentlichkeit zu positionieren. Florian Meinfelder dokumentiert den Aufstieg des Masterstudiengangs in Survey Statistik zu einem der nachgefragtesten Studiengänge der Uni Bamberg. Jürgen Chlumsky und Markus Zwick beleuchten die historische Wahrnehmung der Amtsstatistik bei Pflichterhebungen und die Entwicklung der Forschungsdatenzentren sowie moderner Zugänge zu neuen Datenquellen. Joachim Wagner schildert das Verhältnis von Datenproduzenten und Datennutzern aus der Sicht eines unzufriedenen Datennutzers. Schließlich geht es um die Position der Statistik in der Datenwissenschaft. Ist „Data Science“ nur ein neumodisches Wort für Statistik' Ein Konzeptionspapier der Gesellschaft für Informatik (GI) hat zu Positionspapieren der DStatG und der DAGStat geführt, die von Ulrich Rendtel vorgestellt werden. Das Kolloquium fand anlässlich der Abschiedsvorlesung von Ulrich Rendtel im Juni 2019 am Fachbereich Wirtschaftswissenschaft der Freien Universität statt. PubDate: 2022-05-19 DOI: 10.1007/s11943-022-00305-7
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: In this short note, we apply the method of De Nicola et al. (2022) to the most recent available data, thereby providing up-to-date estimates of all-cause excess mortality in Germany for 2021. The analysis reveals a preliminary excess mortality of approximately 2.3% for the calendar year considered. The excess is mainly driven by significantly higher excess mortality in the 60-79 age group. PubDate: 2022-03-15 DOI: 10.1007/s11943-022-00303-9
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Zusammenfassung Um die Potentiale der Mikrosimulation als ein Instrument zur Analyse zukünftiger Versorgungslagen in verschiedenen (sozialpolitischen) Bereichen aufzuzeigen, wurde am Beispiel der Stadt Trier eine Mikrosimulationsstudie durchgeführt, bei der der Einfluss unterschiedlicher Wanderungsszenarien auf die Situation der Grundschülerinnen und Grundschüler im Stadtgebiet untersucht wurde. Die Datenbasis stellt eine synthetische Grundgesamtheit der Bevölkerung auf Basis der Zensusergebnisse 2011 dar, welche mit Hilfe von Zensusgitterzellen geografisch im Stadtgebiet verortet und modellbasiert in die Zukunft fortgeschrieben wurde. Außerdem liegen für Trier für die Jahre 2011 bis 2018 präzise Zahlen zu Schülerinnen und Schülern der Elementarstufe vor, an denen nicht nur die Simulationsgesamtheit konfiguriert werden kann, sondern die auch als zentrale Benchmarks für die Validität der Fortschreibungsmodule und –Parameter dienen können. PubDate: 2022-02-17 DOI: 10.1007/s11943-022-00301-x
Please help us test our new pre-print finding feature by giving the pre-print link a rating. A 5 star rating indicates the linked pre-print has the exact same content as the published article.
Abstract: Composite spatial data on administrative area level are often presented by maps. The aim is to detect regional differences in the concentration of subpopulations, like elderly persons, ethnic minorities, low-educated persons, voters of a political party or persons with a certain disease. Thematic collections of such maps are presented in different atlases. The standard presentation is by Choropleth maps where each administrative unit is represented by a single value. These maps can be criticized under three aspects: the implicit assumption of a uniform distribution within the area, the instability of the resulting map with respect to a change of the reference area and the discontinuities of the maps at the borderlines of the reference areas which inhibit the detection of regional clusters. In order to address these problems we use a density approach in the construction of maps. This approach does not enforce a local uniform distribution. It does not depend on a specific choice of area reference system and there are no discontinuities in the displayed maps. A standard estimation procedure of densities are Kernel density estimates. However, these estimates need the geo-coordinates of the single units which are not at disposal as we have only access to the aggregates of some area system. To overcome this hurdle, we use a statistical simulation concept. This can be interpreted as a Simulated Expectation Maximisation (SEM) algorithm of Celeux et al (1996). We simulate observations from the current density estimates which are consistent with the aggregation information (S-step). Then we apply the Kernel density estimator to the simulated sample which gives the next density estimate (E-Step). This concept has been first applied for grid data with rectangular areas, see Groß et al (2017), for the display of ethnic minorities. In a second application we demonstrated the use of this approach for the so-called “change of support” (Bradley et al 2016) problem. Here Groß et al (2020) used the SEM algorithm to recalculate case numbers between non-hierarchical administrative area systems. Recently Rendtel et al (2021) applied the SEM algorithm to display spatial-temporal clusters of Corona infections in Germany. Here we present three modifications of the basic SEM algorithm: 1) We introduce a boundary correction which removes the underestimation of kernel density estimates at the borders of the population area. 2) We recognize unsettled areas, like lakes, parks and industrial areas, in the computation of the kernel density. 3) We adapt the SEM algorithm for the computation of local percentages which are important especially in voting analysis. We evaluate our approach against several standard maps by means of the local voting register with known addresses. In the empirical part we apply our approach for the display of voting results for the 2016 election of the Berlin parliament. We contrast our results against Choropleth maps and show new possibilities for reporting spatial voting results. PubDate: 2021-12-23 DOI: 10.1007/s11943-021-00298-9