Der diesjährige Workshop wurde vom DZHW organisert, er fand erneut im Vorfeld des Panelworkshops statt. Im bewährter Art und Weise wurde nach der open-space-Methode vorgegangen.
Dabei wurden etwa die Ergebnisse des Plausibilisierungsworkshops aufgegriffen oder über die Zusammenarbeit mit den Erhebungsinstituten diskutiert. Auch Techniken und Konzepte der Datenaufbereitung, Vorgehensweise bei Berufskodierungen oder Probleme des Datenschutzes fanden am ersten Tag Beachtung.
Stichproben und Gewichtung, strukturierte Metadaten und Kontextdaten waren Themen am zweiten Tag.
Im nächsten Jahr soll der Workshop um einen halben Tag verlängert werden, der für die Ergebnissicherung genutzt werden soll.
Regelmäßige Updates zu einschlägigen Topics gibt es hier im Blog, außerdem steht mit [Datenproduktion] eine Mailingliste zur Verfügung. In beiden Medien wird die Einladung für den nächsten Workshop veröffentlicht, der dann vermutlich vom Panelworkshop entkoppelt sein wird.
Das Jahrestreffen der deutsche RDA-Community wird am 19:/20. Februar 2019 am GFZ in Potsdam stattfinden.
Schwerpunktthema der Tagung wird die Nationale Forschungsdateninfrastruktur sein. Beiträge in Posterform sind willkommen. Im Rahmen der Tagung wird auch die öffentliche Mitgliederversammlung von RDA-DE e.V. stattfinnden.
Update 18.01.2019: Das Programm ist veröffentlicht, die Anmeldung ist jetzt möglich und der Teilnahmebeitrag beträgt 80 EUR.
Die EDDI2018 findet am 4. und 5. Dezember 2018 in Berlin statt. Neben vielen Vorträgen und Diskussionen zum Metadatenstandard DDI stehen auch wieder Tutorials auf dem Programm. Die Keynote wird Simon Hodson, Executive Director of CODATA mit dem Titel „Making Fair Data a Reality… and the Challenges of Interoperability and Reusability” halten. Die Anmeldung zum regulären Preis (240 EUR) läuft noch bis zum 18. November.
Die Konferenzen der European Survey Research Association (ESRA) bieten auch immer die Möglichkeit, Themen aus Forschungsdatenzentren zu diskutieren. Die 8. ESRA-Konferenz findet im Juli 2019 in Zagreb statt. Der Call for Abstracts läuft noch bis 18. November 2018, es wurden 120 Sessions angenommen.
Im Bereich Data management and post-survey processing, der für Forschungsdatenzentren interessant sein dürfte, vier Sessions:
Google hat eine Beta-Version der Google-Datensatz-Suche veröffentlicht. Damit werden heute schon insbesondere alle Datensätze gefunden, für die bei der da|ra DOIs registriert wurden. Details zu dem neuen Suchdienst finden sich im Beitrag „Making it easier to discover datasets“ im Google-Unternehmensblog.
Wahrscheinlich das interessanteste Feature, das die Datensatz-Suche von Google von anderen Angeboten (RatSWD, B2FIND, gesisDataSearch) unterschiedet, ist die Möglichkeit auch Variablen zu finden. Es lohnt sich also, Metadaten auf Variablenebene vorzuhalten. Hierfür wurde mit variableMeasured eine Erweiterung des zugrundeliegenden Datensatz-Schemas im schema.org-Vokabular vorgeschlagen.
Die EDDI2018 findet am 4. und 5. Dezember 2018 in Berlin statt. Der Call for Papers läuft noch bis 2. September. Erstmals werden zur Deckung von Kosten für Reise und Unterkunft (nicht für die Teilnahmegebühr) Diversity Scholarships vergeben.
Zielgruppe für ein solches Tutorial könnten beispielsweise Institutionen sein, die die Weiterentwicklung ihrer Infrastruktur an DDI-Paradigmen orientieren wollen, etwa um langfristig anschlussfähig an DDI zu werden und zunehmend Teile der eigenen Metadaten im DDI-Format nachnutzbar bereitzustellen oder DDI-Metadaten importieren zu können.
Gibt es solche Institutionen?
Welche Themen sind in einem solchen Szenario von Interesse?
Gibt es andere Gelegenheiten, um sinnvoll ein DDI-Tutorial durchzuführen – etwa im Kontext des Panelworkshops (und des vorherigen Workshops zur Datenproduktion)?
Was wären hier die gewünschten Inhalte?
Bitte schreibt Euren Input als Kommentar unter diesen Beitrag oder per E-Mail an kwenzig@diw.de.
Die am DIW Berlin angesiedelte forschungsbasierte Infrastruktureinrichtung Sozio-oekonomisches Panel (SOEP) sucht zum nächstmöglichen Zeitpunkt eine/n
SoftwareentwicklerIn (w/m/div) – (39 h/Woche)
Aufgaben
Softwareentwicklung (Konzeption, Entwicklung, Pflege) im Bereich des Metadatenmanagements, insbesondere des webbasierten Metadateninformationssystems paneldata.org
Entwicklung von Test-Suites für den Import von Metadaten
Pflege von paneldata.org als Software im Produktivbetrieb
Anforderungen
Abgeschlossenes Hochschulstudium (MA) der Informatik bzw. angrenzenden Fachgebieten und/oder Sozialwissenschaften
Berufserfahrung im IT-Bereich, idealerweise in einem (sozial-)wissenschaftlichen Umfeld
Fundierte Erfahrungen in der Programmierung in Python, insbesondere den Paketen Pandas und Django
Erfahrungen in der Datenbankentwicklung mit SQL (PostgreSQL/SQLite), Elasticsearch und Redis
Fundierte Erfahrung in der Arbeit mit Unix/Linux Systemen
Idealerweise Kenntnisse und Erfahrungen in der Dokumentation sozialwissenschaftlicher Daten
Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift
Wir bieten
Das Sozio-oekonomische Panel (SOEP) ist eine wissenschaftsgetragene repräsentative Wiederholungsbefragung, die bereits seit über drei Jahrzehnten läuft. Im Auftrag des DIW Berlin werden zurzeit jedes Jahr in Deutschland etwa 30.000 Befragte in fast 11.000 Haushalten befragt. Die Daten geben unter anderem Auskunft zu Fragen über Einkommen, Erwerbstätigkeit, Bildung oder Gesundheit und werden weltweit von WissenschaftlerInnen für ihre Forschung genutzt.
paneldata.org ist das zentrale Informationssystem für unsere internationalen NutzerInnen. Es dokumentiert die komplexen Daten des SOEP, als auch von anderen sozialwissenschaftlichen Panelstudien und soll die Arbeit der Forscher mit den Mikrodaten erleichtern.
Die Digitalisierung in der Wissenschaft eröffnet neue Forschungsmethoden und neue Möglichkeiten der Zusammenarbeit. Während auf der Ebene der Fachzeitschriften Maßnahmen zur Auswahl und Qualitätssicherung von Fachbeiträgen geläufig sind, sind auf der Ebene Forschungsdaten noch keine solchen systematischen Maßnahmen etabliert. Auch in Anbetracht der Archivierung immer größerer Mengen von Forschungsdaten werden das Kuratieren von Forschungsdaten – also die Aufbereitung, das Verwalten und Vorhalten von Forschungsergebnissen – sowie qualitätssichernde Maßnahmen in der Behandlung von Forschungsdaten zu zentralen Herausforderungen der einzelnen Wissenschaftlerinnen und Wissenschaftler wie auch der Forschungseinrichtungen.
Die Forschenden stehen vor der Aufgabe, Forschungsdaten unter Berücksichtigung von Authentizität, Integrität und Verständlichkeit nach systematischen Kriterien auszuwählen und aufzubereiten. In diesem Zusammenhang muss der Frage nachgegangen werden, was im jeweiligen Forschungsbereich die Qualität von Daten ausmacht und unter welchen Bedingungen aus vorhandenen Datensätzen belastbare Erkenntnisse in neuen Forschungszusammenhängen gewonnen werden können. Auch muss vor dem Hintergrund der Digitalisierung geprüft werden, ob bestehende Qualitätsstandards und qualitätssichernde Maßnahmen noch ausreichen, wenn Forschungsdaten in größerem Maßstab über Repositorien geteilt werden und wie gegebenenfalls Verbesserungen dieser Standards vorgenommen werden können. Schließlich sollen Forschungsdaten nicht länger nur im Hinblick auf den monodisziplinären wissenschaftlichen Nutzwert, sondern auch in Bezug auf andere Fachrichtungen und auf nichtwissenschaftliche Dimensionen wie wirtschaftliche Verwertung, gesamtgesellschaftliche Bedarfe oder eine kulturelle Bedeutung hin kuratiert und qualitätsgesichert werden.
Diesen Herausforderungen wurde bislang nicht in vollständigem oder systematischem Umfang, sondern nur in Ausnahmefällen begegnet. Mit der vorliegenden Förderrichtlinie des Bundesministeriums für Bildung und Forschung (BMBF) sollen diese Herausforderungen nunmehr in der Breite und in der Praxis bewältigt werden können. Zuwendungszweck ist es, wissenschaftliche Kurationsmechanismen, Qualitätsstandards und qualitätssichernde Maßnahmen gezielt und systematisch in allen Fachrichtungen voranzutreiben. Die Zuwendungsempfänger sollen befähigt werden, für ihre Verbünde maßgebliche Kurationskriterien und Qualitätsstandards zu entwickeln oder weiterzuentwickeln, zu erproben und zu etablieren. Grenzen der Qualitätssicherung sowie Auswirkungen auf die Selbstkontrolle (gute wissenschaftliche Praxis) sollen ebenfalls aufgezeigt werden. Zielgruppe der Förderung sind Zusammenschlüsse von wissenschaftlichen Akteuren, die für ihr Forschungsumfeld eine relevante Reichweite oder im Idealfall strukturprägende Wirkungen versprechen. Dies können beispielsweise bereits existierende Forschungsverbünde und -konsortien sein, die ihre Teildisziplin inhaltlich abdecken oder bereits organisationsübergreifende und für die Teildisziplinen relevante Maßnahmen zum Management von Forschungsdaten unternommen haben.
Die gesamte Förderrichtlinie (der obiger Text entnommen wurde) enthält weitere Informationen über die Rahmenbedingungen des Programms. Antragsschluss ist der 7. September 2018, 12 Uhr.
Das Handbuch ist unter Creative Commons Public Domain Dedication (CC0 1.0 Universal) verfügbar und orientiert sich an der praktischen Vermittlung von Open-Science-Prinzipien. Es wurde von 14 Experten während eines von FOSTER und der TIB Hannover im Februar 2018 organisierten Booksprints verfasst. Nach der Aufnahme von Anmerkungen und Korrekturvorschlägen aus der Community wurde das Handbuch nach Github verschoben und wir können nun die Veröffentlichung der Version 1.0 bekannt geben. Das OSTH soll ein lebendiges Handbuch sein und wir freuen uns sehr über Ihre Beiträge und Rückmeldungen zu seiner Anwendung in der Praxis, die wir bei der Arbeit an Version 2.0 berücksichtigen werden.