Was sind Anforderungen an ein DDI-Tutorial?

DDI-Logo
DDI-Logo

Die DDI Alliance hat zu einem Workshop “Train the Trainers” eingeladen, in dem Schulungsinhalte für DDI-Tutorials erarbeitet werden sollen.

  • Zielgruppe für ein solches Tutorial könnten beispielsweise Institutionen sein, die die Weiterentwicklung ihrer Infrastruktur an DDI-Paradigmen orientieren wollen, etwa um langfristig anschlussfähig an DDI zu werden und zunehmend Teile der eigenen Metadaten im DDI-Format nachnutzbar bereitzustellen oder DDI-Metadaten importieren zu können.
  • Gibt es solche Institutionen?
  • Welche Themen sind in einem solchen Szenario von Interesse?
  • Gibt es andere Gelegenheiten, um sinnvoll ein DDI-Tutorial durchzuführen – etwa im Kontext des Panelworkshops (und des vorherigen Workshops zur Datenproduktion)?
  • Was wären hier die gewünschten Inhalte?

Bitte schreibt Euren Input als Kommentar unter diesen Beitrag oder per E-Mail an kwenzig@diw.de.

 

 

Stellenausschreibung: Softwareentwicklung am SOEP

Die am DIW Berlin angesiedelte forschungsbasierte Infrastruktureinrichtung Sozio-oekonomisches Panel (SOEP) sucht zum nächstmöglichen Zeitpunkt eine/n

SoftwareentwicklerIn (w/m/div) – (39 h/Woche)

Aufgaben

  • Softwareentwicklung (Konzeption, Entwicklung, Pflege) im Bereich des Metadatenmanagements, insbesondere des webbasierten Metadateninformationssystems paneldata.org
  • Entwicklung von Test-Suites für den Import von Metadaten
  • Pflege von paneldata.org als Software im Produktivbetrieb

Anforderungen

  • Abgeschlossenes Hochschulstudium (MA) der Informatik bzw. angrenzenden Fachgebieten und/oder Sozialwissenschaften
  • Berufserfahrung im IT-Bereich, idealerweise in einem (sozial-)wissenschaftlichen Umfeld
  • Fundierte Erfahrungen in der Programmierung in Python, insbesondere den Paketen Pandas und Django
  • Erfahrungen in der Datenbankentwicklung mit SQL (PostgreSQL/SQLite), Elasticsearch und Redis
  • Fundierte Erfahrung in der Arbeit mit Unix/Linux Systemen
  • Idealerweise Kenntnisse und Erfahrungen in der Dokumentation sozialwissenschaftlicher Daten
  • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift

Wir bieten

Das Sozio-oekonomische Panel (SOEP) ist eine wissenschaftsgetragene repräsentative Wiederholungsbefragung, die bereits seit über drei Jahrzehnten läuft. Im Auftrag des DIW Berlin werden zurzeit jedes Jahr in Deutschland etwa 30.000 Befragte in fast 11.000 Haushalten befragt. Die Daten geben unter anderem Auskunft zu Fragen über Einkommen, Erwerbstätigkeit, Bildung oder Gesundheit und werden weltweit von WissenschaftlerInnen für ihre Forschung genutzt.

paneldata.org ist das zentrale Informationssystem für unsere internationalen NutzerInnen. Es dokumentiert die komplexen Daten des SOEP, als auch von anderen sozialwissenschaftlichen Panelstudien und soll die Arbeit der Forscher mit den Mikrodaten erleichtern.

(mehr)

Austausch zu Tools für Teilnehmerverwaltung in Panels

Im Zuge der Neukonzeptionierung des GLES-Panels bei Gesis stellen wir uns folgende Fragen zu den Themen Teilnehmerverwaltungs- und Panelmanagementtools und würden uns über einen informellen Austausch dazu, gerne in den Kommentaren, sehr freuen.

Welche selbst entwickelten oder kommerziellen Lösungen werden in den einzelnen Panelprojekten zur Verwaltung der Teilnehmerinformationen (Adressen, bisherige Teilnahmen, Verifizierungsmerkmale etc.) und gegebenenfalls auch zur Feldsteuerung verwendet?

Welche Erfahrungen konnten mit unterschiedlichen Lösungen gesammelt werden?

Bei dem von uns geplanten Panelprojekt handelt es sich um ein mixed-Mode Panel (postalisch und online), in dem die Befragten zweimal jährlich befragt werden. Die Online-Komponente wird über Unipark programmiert und für die Aufbereitung wird Stata genutzt. Das Panel wird komplett bei uns (Gesis) von einem kleinen Team von vier Personen administriert und wird im Herbst starten. Für den Erwerb einer kommerziellen Panelmanagementsoftware stehen uns nur begrenzte finanzielle Mittel zur Verfügung. Im besten Fall würden wir gerne über eine Schnittstelle Teilnehmeradressen und Stammdaten verwalten und mit Umfragedaten verknüpfen, den Versand von Einladungen und Remindern steuern und die Incentivierung der Befragten organisieren.

Wir freuen uns über jeden Bericht oder weitere Fragen und berichten dann gerne ab Herbst auch über unsere Erfahrungen.

BMBF fördert Entwicklung und Erprobung von Kurationskriterien und Qualitätsstandards von Forschungsdaten

Screenshot von bmbf.de

Die Digitalisierung in der Wissenschaft eröffnet neue Forschungsmethoden und neue Möglichkeiten der Zusammenarbeit. Während auf der Ebene der Fachzeitschriften Maßnahmen zur Auswahl und Qualitätssicherung von Fachbeiträgen geläufig sind, sind auf der Ebene Forschungsdaten noch keine solchen systematischen Maßnahmen etabliert. Auch in Anbetracht der Archivierung immer größerer Mengen von Forschungsdaten werden das Kuratieren von Forschungsdaten – also die Aufbereitung, das Verwalten und Vorhalten von Forschungsergebnissen – sowie qualitätssichernde Maßnahmen in der Behandlung von Forschungsdaten zu zentralen Herausforderungen der einzelnen ­Wissenschaftlerinnen und Wissenschaftler wie auch der Forschungseinrichtungen.

Die Forschenden stehen vor der Aufgabe, Forschungsdaten unter Berücksichtigung von Authentizität, Integrität und Verständlichkeit nach systematischen Kriterien auszuwählen und aufzubereiten. In diesem Zusammenhang muss der Frage nachgegangen werden, was im jeweiligen Forschungsbereich die Qualität von Daten ausmacht und unter welchen Bedingungen aus vorhandenen Datensätzen belastbare Erkenntnisse in neuen Forschungszusammenhängen gewonnen werden können. Auch muss vor dem Hintergrund der Digitalisierung geprüft werden, ob bestehende Qualitätsstandards und qualitätssichernde Maßnahmen noch ausreichen, wenn Forschungsdaten in größerem Maßstab über Repositorien geteilt werden und wie gegebenenfalls Verbesserungen dieser Standards vorgenommen werden können. Schließlich sollen Forschungsdaten nicht länger nur im Hinblick auf den monodisziplinären wissenschaftlichen Nutzwert, sondern auch in Bezug auf andere Fachrichtungen und auf nichtwissenschaftliche Dimensionen wie wirtschaftliche Verwertung, gesamtgesellschaftliche Bedarfe oder eine kulturelle Bedeutung hin kuratiert und qualitäts­gesichert werden.

Diesen Herausforderungen wurde bislang nicht in vollständigem oder systematischem Umfang, sondern nur in Ausnahmefällen begegnet. Mit der vorliegenden Förderrichtlinie des Bundesministeriums für Bildung und Forschung (BMBF) sollen diese Herausforderungen nunmehr in der Breite und in der Praxis bewältigt werden können. Zuwendungszweck ist es, wissenschaftliche Kurationsmechanismen, Qualitätsstandards und qualitätssichernde Maßnahmen gezielt und systematisch in allen Fachrichtungen voranzutreiben. Die Zuwendungsempfänger sollen befähigt werden, für ihre Verbünde maßgebliche Kurationskriterien und Qualitätsstandards zu entwickeln oder weiterzuentwickeln, zu erproben und zu etablieren. Grenzen der Qualitätssicherung sowie Auswirkungen auf die Selbstkontrolle (gute wissenschaftliche Praxis) sollen ebenfalls aufgezeigt werden. Zielgruppe der Förderung sind Zusammenschlüsse von wissenschaftlichen Akteuren, die für ihr Forschungsumfeld eine relevante Reichweite oder im Idealfall strukturprägende Wirkungen versprechen. Dies können beispielsweise bereits existierende Forschungsverbünde und -konsortien sein, die ihre Teildisziplin inhaltlich abdecken oder bereits organisationsübergreifende und für die Teildisziplinen relevante Maßnahmen zum Management von Forschungsdaten unternommen haben.

Die gesamte Förderrichtlinie (der obiger Text entnommen wurde) enthält weitere Informationen über die Rahmenbedingungen des Programms. Antragsschluss ist der 7. September 2018, 12 Uhr.

Open Science Training Handbook 1.0

Das Open Science Training Handbook 1.0 ist ab sofort als Gitbook erhältlich unter https://book.fosteropenscience.eu.

Das Handbuch ist unter Creative Commons Public Domain Dedication (CC0 1.0 Universal) verfügbar und orientiert sich an der praktischen Vermittlung von Open-Science-Prinzipien. Es wurde von 14 Experten während eines von FOSTER und der TIB Hannover im Februar 2018 organisierten Booksprints verfasst. Nach der Aufnahme von Anmerkungen und Korrekturvorschlägen aus der Community wurde das Handbuch nach Github verschoben und wir können nun die Veröffentlichung der Version 1.0 bekannt geben. Das OSTH soll ein lebendiges Handbuch sein und wir freuen uns sehr über Ihre Beiträge und Rückmeldungen zu seiner Anwendung in der Praxis, die wir bei der Arbeit an Version 2.0 berücksichtigen werden.

(via [forschungsdaten])

DFG: Förderung von Informationsstrukturen für die Wissenschaft

Cover

Im neuen Positionspapier „Förderung von Informationsinfrastrukturen für die Wissenschaft“ (PDF) legt die DFG förderstrategische Überlegungen u.a. zum Thema Forschungsdaten dar und unterstützt nachhaltig den Aufbau der NFDI, auch fußend auf den Empfehlungen des RfII.

Das Papier enthält eine vertiefte Auseinandersetzung mit den drei Themenschwerpunkten Erschließung und Digitalisierung, Open-Access-Transformation und Forschungsdaten.

Aus dem Executive Summary:

„Policies und Regelwerke, digitale Kompetenz und Föderieren von Infrastrukturen sind die Schwerpunkte, die im Themenfeld Forschungsdaten (B.III.) in den kommenden Jahren mit gezielten Initiativen gefördert werden sollen. Konkret ist geplant,

 

  • die weitere Ausarbeitung und Aushandlung fachspezifischer Policies und Regelwerke zu unterstützen – und dabei insbesondere wissenschaftliche Communities mit einem geringen Organisationsgrad anzusprechen – sowie zu reflektieren, ob die Aufforderung zur Entwicklung und Nutzung von Datenmanagementplänen in Projektanträgen an die DFG weiter präzisiert werden soll;
  • Förderoptionen zu erarbeiten, um die Kompetenz für das Forschungsdatenmanagement zu stärken;
  • Förderinitiativen zu gestalten, um bereits bestehende, Community-spezifische Infrastrukturen zu koordinieren und zu vernetzen, sodass die Anschlussfähigkeit und Interoperabilität der unterschiedlichen Systeme sichergestellt wird.“

(via [RfII Info Ticker])

Austausch zum Thema Plausibilisierung

Wie sich im Zuge des diesjährigen Workshops „Datenproduktion“ am 19.02.2018 in Bamberg gezeigt hat, kommt bei der Erstellung von Scientific Use Files – also mit Blick auf die Sekundärnutzung von Daten – immer wieder die Frage auf, welche unplausiblen Angaben bereits von den Datenproduzent*innen bereinigt und welche Entscheidungen den Datennutzer*innen überlassen werden sollten. Daran anknüpfend stellt sich die Frage nach einer möglichst nachvollziehbaren und übersichtlichen Dokumentation von vorgenommenen Korrekturen bzw. eventuell noch im Datensatz vorhandenen Problemen.

Daher wurde in einer der Diskussionsrunden vereinbart, eine Bestandsaufnahme der bisherigen Plausibilisierungspraktiken in verschiedenen Studien und Institutionen vorzunehmen, um darauf aufbauend gemeinsam einen Standard mit verschiedenen Plausibilisierungsstufen oder -formen für die Erstellung von Scientific Use Files zu entwickeln, bei dem pro Stufe/Form die Konsequenzen für die Datennutzer*innen festgehalten werden. Ein solcher Standard würde wiederum die Dokumentation insofern erleichtern, dass auf diesen verwiesen werden könnte (z. B. „Die Studie wurde gemäß Standard B plausibilisiert. –> D.h. für Nutzer*in, er/sie muss bei der Arbeit mit den Daten a), b), c) beachten.“)

Wir würden uns sehr freuen, wenn sich möglichst viele von Euch an der Bestandsaufnahme beteiligen würden. Dafür haben wir die Tabelle Plausibilisierung_Bestandsaufnahme vorbereitet. Sie enthält verschiedene Formen unplausibler Angaben und Ihr könnt eintragen, ob/wie Ihr Eure Daten daraufhin prüft, ob/wie Ihr gefundene Fehler bereinigt und ob/wie Ihr die Bereinigung bzw. (falls keine Bereinigung stattfindet) die gefundenen Fehler dokumentiert. Sofern wir etwas vergessen haben, bitte einfach gerne individuell ergänzen.

Wenn ihr euch beteiligen wollt, füllt bitte die Tabelle pro Projekt oder Institution aus, verseht die Datei mit eurem Kürzel und sendet sie bis zum 13.04. an uns zurück (daniel@dzhw.eu).

Wir werden alle Tabellen sichten, zusammenführen und bis Anfang Mai an alle herumschicken, die sich an der Bestandsaufnahme beteiligt oder anderweitig Interesse an dem Thema bei uns bekundet haben. Im Mai/Juni würden wir dann ein Treffen zur weiteren Absprache in Hannover organisieren. Dafür könnt Ihr Euch bereits jetzt in das folgende Doodle eintragen: https://dudle.inf.tu-dresden.de/Plausi/. Um eine entspannte An- und Abreise zu gewährleisten, wollen wir um 12:00 starten und gegen 16:00 Uhr enden.

Wir freuen uns auf Eure Rückmeldungen, liebe Grüße aus Hannover

Anne (Weber) und Andreas (Daniel) vom FDZ-DZHW

Workshop „Datenaufbereitung und Dokumentation“ am LIfBi

Am LIfBi in Bamberg: der Workshop Datenaufbereitung und Dokumentation

Am 19. und 20. Februar hat der der Workshop „Datenaufbereitung und Dokumentation“ in diesem Jahr am Leibniz-Institut für Bildungsverläufe in Bamberg stattgefunden. In insgesamt 15 Sessions wurden Themen diskutiert, die uns als Datenproduzenten aktuell beschäftigen. Wie immer wurde dabei ein breites Spektrum abgedeckt, von prozessbegleitender Dokumentation über Datenedition bis zu Datenschutz, Nutzersupport und Projektmanagement. Es gab vorab keine fixe Agenda, sondern die Themen haben sich nach dem OpenSpace-Ansatz aus dem Kreis der Teilnehmerinnen und Teilnehmer ergeben.

Der Teilnehmerkreis ist wieder gewachsen und neben vielen alten Bekannten konnten wir auch in diesem Jahr wieder neue Kolleginnen und Kollegen begrüßen. Noch einmal herzlichen Dank an die hervorragenden Gastgeberinnen und Gastgeber vom FDZ des NEPS, die trotz kurzfristiger räumlicher und gesundheitlicher Schwierigkeiten einen sehr produktiven und kurzweiligen Workshop ermöglicht haben! Für das nächste Jahr hat sich das FDZ des DZHW dankenswerter Weise bereiterklärt uns zu beherbergen.

Vielen Dank auch an alle Teilnehmerinnen und Teilnehmer und bis zum nächsten Jahr in Hannover!

Abschnitt zu „Open Research Data and Materials“ im Handbuch „Open Science Training“

Am 12. Februar 2018 startete ein Booksprint mit 14 Expertinnen und Experten zum Thema Open Science Training in Hannover. Der Booksprint wurde von FOSTER und der TIB Hannover organisiert. Ziel war die Erstellung eines Handbuchs zum Thema „Open Science Training“, das zukünftigen Open Science Trainern eine Orientierung bei der Erstellung und Gestaltung von Schulungen bieten soll. Die erste Version ist nun online als Google Doc zugänglich und kann kommentiert oder einfach nur gelesen werden.

Im Kapitel „Open Science Basics“ findet sich auch ein Abschnitt „Open Research Data and Materials“. Der enthält bereits einige wichtige Aspekte, will aber insbesondere zu den Stichworten Research Data Management, Open file formats, Metadata/documentation und Funder requirements ergänzt werden.

(via [forschungsdaten])

2018 German Stata Users Group meeting

Date: June 22, 2018
Venue: University of Konstanz
Cost: Meeting only: 45 € (students 35 €), Workshop only: 65 €, Workshop and Meeting: 85 €
Submission deadline: March 1, 2018

Call for Presentations

We would like to announce the 16th German Stata Users Group meeting to be held Friday, June 22, 2018 at:

University of Konstanz
Universitätsstraße 10
78464 Konstanz

All Stata users, from Germany and elsewhere, or those interested in learning about Stata, are invited to attend.
Presentations are sought on topics that include the following:

  • User-written Stata programs
  • Case studies of research or teaching using Stata
  • Discussions of data management problems
  • Reviews of analytic issues
  • Surveys or critiques of Stata facilities in specific fields, etc.

The conference language will be English, due to the international nature of the meeting and the participation of non-German guest speakers.

Submission guidelines

If you are interested in presenting a paper, please submit an abstract by email to one of the scientific organizers (max 200 words). The deadline for submissions is March 1, 2018.
Presentations should be 20 minutes or shorter.

Registration

Participants are asked to travel at their own expense. There will be a small conference fee to cover costs for refreshments and lunch. There will also be an optional informal meal at a restaurant in Konstanz on Friday evening at additional cost.
You can enroll by contacting Tim Prenzel by email or by writing or phoning.

Tim Prenzel
Dittrich & Partner Consulting GmbH
Prinzenstraße 2
42697 Solingen
Tel: +49 212 26066-64
Email: tim.Prenzel@dpc.de

The final program, cost, and venue will be circulated in April 2018.

Organizers

Scientific Organizers

  • Maarten Buis, University of Konstanz, maarten.buis@uni-konstanz.de
  • Johannes Giesecke, Humboldt University Berlin, johannes.giesecke@hu-berlin.de
  • Thomas Hinz, University of Konstanz, thomas.hinz@uni-konstanz.de
  • Ulrich Kohler, University of Potsdam, ulrich.kohler@uni-potsdam.de

Logistics Organizer

Dittrich & Partner Consulting GmbH (dpc.de), the distributor of Stata in several countries, including Germany, the Netherlands, Austria, the Czech Republic, and Hungary.