Heft 1-2020 der Bausteine Forschungsdatenmanagement erschienen und Call für Heft 2-2020

Das neue Heft der Bausteine Forschungsdatenmanagement mit zehn Beiträgen zum Thema Forschungsdatenmanagement ist online: https://bausteine-fdm.de/issue/view/245

Mit dabei sind neue Beiträge aus der Workshopreihe der DINI/nestor AG Forschungsdaten und dem Workshop “Forschungsdatenmanagement und -infrastruktur in DFG-Sonderforschungsbereichen” des Projekts GRAce aus der Göttinger eResearch Alliance sowie Beiträge zu Kosten und Aufwänden von FDM und Thesen zur Kompetenzausbildung.

Wir möchten gleichzeitig den Call für die Ausgabe 2-2020 der Bausteine Forschungsdatenmanagement eröffnen.

Beiträge können alle einreichen, die professionell Forschungsdaten managen und die Forscherinnen und Forscher im Umgang mit diesen Daten beraten und unterstützen.

Deadline für die Einsendung ist der 01. Juni 2020.

Nähere Informationen zu Themenspektrum und Zielgruppen finden Sie unter: https://bausteine-fdm.de/about

Bitte beachten Sie vor allem Informationen zur Einreichung und zur Begutachtung.

Die Redaktion freut sich auf Ihre Beiträge!

ESRA 2019 in Zagreb: Abstracts bis 18. November 2018 einreichen

Banner der ESRA 2019. Quelle: https://www.europeansurveyresearch.org/conferences/overview

Die Konferenzen der European Survey Research Association (ESRA) bieten auch immer die Möglichkeit, Themen aus Forschungsdatenzentren zu diskutieren. Die 8. ESRA-Konferenz findet im Juli 2019 in Zagreb statt. Der Call for Abstracts läuft noch bis 18. November 2018, es wurden 120 Sessions angenommen.

Im Bereich Data management and post-survey processing, der für Forschungsdatenzentren interessant sein dürfte, vier Sessions:

Aber auch in den Bereichen

  • Survey methods and data quality
  • Questionnaire design and testing
  • Modes of data collection
  • Survey fieldwork processes
  • Combining survey data with other sources

dürften sich Sessions mit attraktiven Themen finden lassen.

CfP für EDDI2018 in Berlin – erstmals werden Diversity Scholarships vergeben

Die EDDI2018 findet am 4. und 5. Dezember 2018 in Berlin statt. Der Call for Papers läuft noch bis 2. September. Erstmals werden zur Deckung von Kosten für Reise und Unterkunft (nicht für die Teilnahmegebühr) Diversity Scholarships vergeben.

2018 German Stata Users Group meeting

Date: June 22, 2018
Venue: University of Konstanz
Cost: Meeting only: 45 € (students 35 €), Workshop only: 65 €, Workshop and Meeting: 85 €
Submission deadline: March 1, 2018

Call for Presentations

We would like to announce the 16th German Stata Users Group meeting to be held Friday, June 22, 2018 at:

University of Konstanz
Universitätsstraße 10
78464 Konstanz

All Stata users, from Germany and elsewhere, or those interested in learning about Stata, are invited to attend.
Presentations are sought on topics that include the following:

  • User-written Stata programs
  • Case studies of research or teaching using Stata
  • Discussions of data management problems
  • Reviews of analytic issues
  • Surveys or critiques of Stata facilities in specific fields, etc.

The conference language will be English, due to the international nature of the meeting and the participation of non-German guest speakers.

Submission guidelines

If you are interested in presenting a paper, please submit an abstract by email to one of the scientific organizers (max 200 words). The deadline for submissions is March 1, 2018.
Presentations should be 20 minutes or shorter.

Registration

Participants are asked to travel at their own expense. There will be a small conference fee to cover costs for refreshments and lunch. There will also be an optional informal meal at a restaurant in Konstanz on Friday evening at additional cost.
You can enroll by contacting Tim Prenzel by email or by writing or phoning.

Tim Prenzel
Dittrich & Partner Consulting GmbH
Prinzenstraße 2
42697 Solingen
Tel: +49 212 26066-64
Email: tim.Prenzel@dpc.de

The final program, cost, and venue will be circulated in April 2018.

Organizers

Scientific Organizers

  • Maarten Buis, University of Konstanz, maarten.buis@uni-konstanz.de
  • Johannes Giesecke, Humboldt University Berlin, johannes.giesecke@hu-berlin.de
  • Thomas Hinz, University of Konstanz, thomas.hinz@uni-konstanz.de
  • Ulrich Kohler, University of Potsdam, ulrich.kohler@uni-potsdam.de

Logistics Organizer

Dittrich & Partner Consulting GmbH (dpc.de), the distributor of Stata in several countries, including Germany, the Netherlands, Austria, the Czech Republic, and Hungary.

 

6th Annual North American Data Documentation Initiative Conference (NADDI)

The NADDI 2018 Organizing Committee announced the Call for Proposals for the 6th Annual North American Data Documentation Initiative Conference (NADDI).  The Data Documentation Initiative (DDI) is an international standard for describing the data produced by surveys and other observational methods in the social, behavioral, economic, and health sciences.

The conference theme is “Benefits of Describing National Statistics with Common Standards,” which emphasizes the benefits of using metadata to drive efficiencies in a research data lifecycle, as well as promotes subsequent re-use of end data products, especially those generated by federal and national statistical agencies.

Aimed at individuals working in and around data and metadata, NADDI 2018 seeks submissions of presentations and posters that highlight the use of DDI and other metadata standards within research projects, official statistics, survey operations, academic libraries, and data archives.

Proposals can include:

  • Presentations
  • Panels
  • Posters
  • Workshops or Tutorials

Important Information

  • December 1: Deadline for conference proposals
  • January 5: Notification of acceptance
  • February 14: Early-bird registration deadline
  • Conference Dates: April 4-6, 2018
  • Conference Location: Bureau of Labor Statistics of the U.S. Department of Labor in Washington, D.C.

How to Submit

Submissions may be made through the conference web site.  The proposal deadline is December 1, 2017.

Masse statt Klasse? – Entstehungsprozesse, Qualitätsprobleme und Verwendungsmöglichkeiten von prozessgenerierten Daten im digitalen Zeitalter

Auch wenn prozessproduzierte Massendaten (sogenannte „Big Data“) etwa in Form von staatlichen Verwaltungsdaten eine mehr als zweihundertjährige Tradition haben, hat sich deren Verfügbarkeit in den letzten Jahrzehnten dramatisch gesteigert:

  1. Zum einen werden administrative Daten, die als Nebenprodukt von organisationalen und behördlichen Prozessen entstehen (z.B. Registerdaten, Kundendaten), nicht nur seit den 1970er Jahren digital gespeichert und verarbeitet, sondern werden seit Ende der 1990er Jahre etwa über Forschungsdatenzentren und den RatSWD zunehmend für wissenschaftliche Analysen zugänglich gemacht.
  2. Zum anderen entstehen als Nebenprodukt der digitalen Kommunikation im Web 2.0 neue Arten von Massendaten (z.B. Websites, Blogs, Social Media), die – anders als frühere prozessproduzierte Daten – von den Nutzern dieser Dienste unbewusst und/oder freiwillig generiert werden, bei denen sich die Geschwindigkeit der Datenproduktion stark erhöht hat und die Rechte an den Daten nicht mehr bei staatlichen Akteuren, sondern bei Firmen liegen oder uneindeutig sind.

Nicht nur die Forschungsdatenzentren, sondern auch historische Datenarchive und eine Vielzahl universitärer Projekte arbeiten daran beide Datensorten, also bisher unerschlossene alte Datensammlungen ebenso wie neue digitale Daten, zunehmend für die Forschung zugänglich zu machen. Damit erweitern sich Möglichkeiten für die Sozialwissenschaften, soziale Phänomene sowohl aus aktueller, als auch historischer Blickrichtung zu analysieren. Das gilt umso mehr, je stärker Datensätze miteinander verknüpft und digitale Massendaten in Kombination miteinander und mit forschungsinduzierten Daten einer Analyse zugänglich gemacht werden können.

Im methodologischen Umgang mit diesen Massendaten zeichnet sich ein erstaunlicher Gegensatz ab:

  1. Die empirische Sozialforschung fokussiert sich in ihren Analysen vorwiegend auf die klassischen administrativen Daten, und die Erkenntnis, dass diese Daten sozial konstruiert sind und damit eigene methodologischen Probleme mit sich bringen, die bei der Analyse reflektiert werden müssen. Diese Methodendebatte war bereits ein wesentliches Moment der Gründung der deutschsprachigen Soziologie und der quantitativen empirischen Sozialforschung, die in den 1970ern wiederbelebt wurde. Als Ergebnis dieser Debatte wurde das Konzept der „Datenkunde“ (als alternative zur „Fehlerkunde“ im Survey-Prozess) eingeführt, verbunden mit der Forderung, dass vor der Auswertung eines
    Datenbestands analysiert werden muss, wie die Datenproduktion durch organisationale Regeln, Alltagspraktiken der Datenproduzenten sowie Verhalten der Klienten überformt wird, um daraus die spezifischen Verzerrungen der Population bzw. Stichprobe sowie der Fehler in den Daten zu identifizieren. In den letzten zwei Jahrzehnten existiert vor allem im Kontext der Forschungsdatenzentren eine intensive Methodenforschung, die diese spezifische Verzerrungsprozesse und die sich daraus ergebenden methodologischen Probleme erkundet.
  2. Die internationale „Computational Social Science“ fokussiert in ihren Analysen vorwiegend auf die im Zuge der digitalen Kommunikation entstandenen neuen Sorten von Massendaten. In der Methodenforschung wendet sich die „Computational Social Science“ zunehmend auf neue Analysetechniken und Algorithmen zur Auswertung von Big Data zu. Auch hier zeichnet sich eine Methodendebatte an, die vornehmlich pragmatische Machbarkeitsprobleme ebenso wie die Strukturierung durch Technik thematisiert.

Diese beiden Forschungsstränge sind bislang kaum verbunden und weisen wechselseitige blinde Flecken auf. Durch einen produktiven Austausch könnten beide Forschungsstränge wechselseitig profitieren: Beispielsweise erscheint eine Debatte über die Potentiale neuer Auswertungstechniken aus den Computational Social Science im Bereich der historischen Massendaten vielversprechend. Anderseits erscheint eine kritische Auseinandersetzung mit der Fehlerhaftigkeit und internen Verzerrung von jenen Daten, die in digitalen Prozessen generiert wurden, notwendig.

Dieser Workshop will einen Beitrag zu einem solchen Austausch leisten und hat das Ziel, die Entstehungsbedingungen analoger und digitaler prozess-generierter Daten zu reflektieren und ihre damit verbundenen Verwendungsschwierigkeiten zu diskutieren. Hierzu gehört auch die Frage, ob und wie das Konzept der „Datenkunde“ erweitert oder aktualisiert werden muss. Damit rücken neben messbezogenen Eigenschaften gesellschaftliche, politische und wirtschaftliche Bedingungen in die Betrachtung, die eine Interpretation von Analyseergebnissen erst sinnvoll machen. Der Workshop will diese methodologischen wie theoriebezogenen Fragen auch mit der Absicht stellen, Möglichkeiten aufzuzeigen, mit denen die Aussagekraft prozessgenerierter Daten in sozialwissenschaftlichen Untersuchungen gesteigert werden kann.

Wenn Sie an dem Workshop mit einen Vortrag/einer Präsentation teilnehmen wollen, senden Sie uns bitte das Thema bis zum 30.10.2017 per -Mail an nina.baur@tu-berlin.de zu.

EDDI2017 in Lausanne: Beiträge bis 10. September einreichen

EDDI-Logo

Die Deadline wurde auf den 10. September 2017 verlängert. Jetzt noch Beiträge einreichen für die die EDDI17 die 9th Annual European DDI User Conference, die am 5. und 6. Dezember 2017 in Lausanne (Schweiz) stattfindet statt. Der Call for Papers  gibt eine große Freiheit bei der Themenwahl.

EDDI2017 in Lausanne: Beiträge bis 4. September einreichen

EDDI-Logo

Am 5. und 6. Dezember 2017 findet in Lausanne mit der EDDI17 die 9th Annual European DDI User Conference statt. Der Call for Papers wurde gerade veröffentlicht. Er gibt eine große Freiheit bei der Themenwahl und hat sich im Vergleich zum Vorjahr kaum geändert.

Total Survey Error Call: Einreichung noch bis zum 26. Februar 2017

 

aus Groves und Lyberg (2010)

Der Call for Abstracts für den International Total Survey Error Workshop 2017 läuft noch bis zum 26. Februar. Oberthema dieses Jahr ist Total Survey Error: Combined data products from a TSE perspective, oder etwas spezifischer:

In addition to traditional TSE topics, we are encouraging contributions on:

  • Total error frameworks for Big Data, integrated data sets and products
  • “Total statistical uncertainty” frameworks for estimates derived from nonprobability samples
  • Statistical disclosure limitation error
  • Uses of administrative data to reduce TSE
  • Methods for addressing specification errors in integrated data sets
  • Illuminating the Big Data ETL process black box

Wer also (schon wieder) ins schöne Nürnberg zum IAB fahren möchte kann das vom 12. bis 14. Juni tun. Genaue Infos gibt es hier:

https://www.xing-events.com/itsew2017.html

Ich würde mich freuen die eine oder den anderen aus unserem Kreis da zu treffen. Schließlich müssen wir ja die Fahne für den Processing Error hochhalten. Ich habe manchmal den Eindruck der ist ein wenig das Stiefkind des TSE-Konzepts 😉