Jetzt zur EDDI 2018 in Berlin anmelden

Die EDDI2018 findet am 4. und 5. Dezember 2018 in Berlin statt. Neben vielen Vorträgen und Diskussionen zum Metadatenstandard DDI stehen auch wieder Tutorials auf dem Programm. Die Keynote wird Simon Hodson, Executive Director of CODATA mit dem Titel „Making Fair Data a Reality… and the Challenges of Interoperability and Reusability“ halten. Die Anmeldung zum regulären Preis (240 EUR) läuft noch bis zum 18. November.

ESRA 2019 in Zagreb: Abstracts bis 18. November 2018 einreichen

Banner der ESRA 2019. Quelle: https://www.europeansurveyresearch.org/conferences/overview

Die Konferenzen der European Survey Research Association (ESRA) bieten auch immer die Möglichkeit, Themen aus Forschungsdatenzentren zu diskutieren. Die 8. ESRA-Konferenz findet im Juli 2019 in Zagreb statt. Der Call for Abstracts läuft noch bis 18. November 2018, es wurden 120 Sessions angenommen.

Im Bereich Data management and post-survey processing, der für Forschungsdatenzentren interessant sein dürfte, vier Sessions:

Aber auch in den Bereichen

  • Survey methods and data quality
  • Questionnaire design and testing
  • Modes of data collection
  • Survey fieldwork processes
  • Combining survey data with other sources

dürften sich Sessions mit attraktiven Themen finden lassen.

Workshop „Datenaufbereitung und Dokumentation“ am 04./05. März 2019

Der Workshop zur Datenaufbereitung und Dokumentation wird vom 04. März 2019 (12:00 Uhr) bis 05. März 2019 (12:00 Uhr) am Deutschen Zentrum für Hochschul- und Wissenschaftsforschung (DZHW) in Hannover stattfinden.

Ziel des Workshops ist es, den Austausch über Fragestellungen und Herausforderungen in der Datendokumentation und -produktion in sozialwissenschaftlichen Längsschnittstudien zu befördern. Wie üblich wird der Workshop nach dem Modell der Open Space Technology (https://en.wikipedia.org/wiki/Open_Space_Technology) durchgeführt. Im Rahmen dieses Modells wird sich die Veranstaltung inhaltlich selbst organisieren und lebt von der aktiven Gestaltung der Teilnehmenden. Für eine erfolgreiche Durchführung bietet es sich daher an, sich bereits im Vorfeld Gedanken über Themenfelder zu machen, die im Rahmen des Workshops diskutiert werden können. Das Format richtet sich an Mitarbeitende in sozialwissenschaftlichen (Längsschnitts-)Studien, die operativ mit der Datendokumentation und Datenproduktion beschäftigt sind und hat einen mehr oder weniger festen Teilnehmerkreis, der selbstverständlich für sinnvolle Ergänzungen offen ist.

Da die Unterkünfte in der Messestadt Hannover häufig recht stark gebucht sind, bitte ich euch, frühzeitig eine Unterkunft zu buchen.

Im direkten Anschluss an den Workshop findet der 13. Workshop der Panelstudien im deutschsprachigen Raum statt (05.03.2019 (12:30) – 06.03.2019 (12:30)) .

Die offizielle Anmeldeseite für beide Veranstaltungen wird demnächst freigeschaltet werden.

Für Rückfragen stehe ich euch sehr gerne zur Verfügung (daniel@dzhw.eu).

Beste Grüße

Andreas Daniel (Forschungsdatenzentrum des DZHW)


Treffen zum Austausch über Plausibilisierungspraktiken am 15.10.18 in Hannover

Am 15.10.2018 soll ein Treffen zur Diskussion von Plausibilisierungspraktiken in großen Befragungsprojekten beziehungsweise bei der Erstellung von Scientific Use Files stattfinden. Das Treffen ist als Startpunkt zu sehen und wird dieses Mal zu Gast beim DZHW in Hannover sein beziehungsweise vom dortigen FDZ organisiert. Das Treffen soll  um 11 Uhr beginnen, grob zwei Blöcke umfassen und mit Pausen nicht länger als bis 16-17 Uhr dauern. Interessierte sollten eine kurze E-Mail an scheller@dzhw.eu oder die anderen unten genannten Organisator*innen des Treffens schicken. Details zur Vorbereitung des Treffens sollen im direkten Vorfeld des Treffens bereitgestellt werden.

Die Initiator*innen des Treffen erhoffen sich größere Klarheit, welche unplausiblen Angaben von den Datenproduzent*innen bereinigt/editiert und welche Entscheidungen den Datennutzer*innen überlassen werden sollten. Daran anknüpfend stellt sich die Frage nach einer möglichst nachvollziehbaren und übersichtlichen Dokumentation von vorgenommenen Korrekturen bzw. eventuell noch im Datensatz vorhandenen Problemen. Ziel ist es Gemeinsamkeiten zu identifizieren und referenzierbare Standards mit verschiedenen Plausibilisierungsstufen oder -formen für die Erstellung von Scientific Use Files zu entwickeln, bei dem pro Stufe/Form die Konsequenzen für die Datennutzer*innen festgehalten werden. Ein solcher Standard würde wiederum die Dokumentation insofern erleichtern, dass auf diesen verwiesen werden könnte (z. B. „Die Studie wurde gemäß Standard B plausibilisiert. –> D.h. für Nutzer*in, er/sie muss bei der Arbeit mit den Daten a), b), c) beachten.“)

Es sind explizit auch Wissenschaftler*innen eingeladen, die nicht zu den Initiator*innen beim Workshop „Datenproduktion“ am 19.02.2018 in Bamberg gehört haben (vgl. auch den Aufruf in diesem Blog vom März). Bitte macht/machen Sie gerne auch Kolleg*innen auf das Treffen aufmerksam und leitet/leiten Sie diese Information weiter.

Wir freuen uns über eine kurze Rückmeldungen und verbleiben mit Grüßen aus Hannover

Florene (Baillet), Anne (Weber), Andreas (Daniel) und Percy (Scheller) vom FDZ-DZHW

Google will Datensätze finden

Screenshot der Google-Datensatz-Suche

Update: Im Blogbeitrag Building Google Dataset Search and Fostering an Open Data Ecosystem gibt es weitere Informationen.

Google hat eine Beta-Version der Google-Datensatz-Suche veröffentlicht. Damit werden heute schon insbesondere alle Datensätze gefunden, für die bei der da|ra DOIs registriert wurden. Details zu dem neuen Suchdienst finden sich im Beitrag „Making it easier to discover datasets“ im Google-Unternehmensblog.

Wahrscheinlich das interessanteste Feature, das die Datensatz-Suche von Google von anderen Angeboten (RatSWD, B2FIND, gesisDataSearch) unterschiedet, ist die Möglichkeit auch Variablen zu finden. Es lohnt sich also, Metadaten auf Variablenebene vorzuhalten. Hierfür wurde mit variableMeasured eine Erweiterung des zugrundeliegenden Datensatz-Schemas im schema.org-Vokabular vorgeschlagen.

CfP für EDDI2018 in Berlin – erstmals werden Diversity Scholarships vergeben

Die EDDI2018 findet am 4. und 5. Dezember 2018 in Berlin statt. Der Call for Papers läuft noch bis 2. September. Erstmals werden zur Deckung von Kosten für Reise und Unterkunft (nicht für die Teilnahmegebühr) Diversity Scholarships vergeben.

Was sind Anforderungen an ein DDI-Tutorial?

DDI-Logo
DDI-Logo

Die DDI Alliance hat zu einem Workshop “Train the Trainers” eingeladen, in dem Schulungsinhalte für DDI-Tutorials erarbeitet werden sollen.

  • Zielgruppe für ein solches Tutorial könnten beispielsweise Institutionen sein, die die Weiterentwicklung ihrer Infrastruktur an DDI-Paradigmen orientieren wollen, etwa um langfristig anschlussfähig an DDI zu werden und zunehmend Teile der eigenen Metadaten im DDI-Format nachnutzbar bereitzustellen oder DDI-Metadaten importieren zu können.
  • Gibt es solche Institutionen?
  • Welche Themen sind in einem solchen Szenario von Interesse?
  • Gibt es andere Gelegenheiten, um sinnvoll ein DDI-Tutorial durchzuführen – etwa im Kontext des Panelworkshops (und des vorherigen Workshops zur Datenproduktion)?
  • Was wären hier die gewünschten Inhalte?

Bitte schreibt Euren Input als Kommentar unter diesen Beitrag oder per E-Mail an kwenzig@diw.de.

 

 

Stellenausschreibung: Softwareentwicklung am SOEP

Die am DIW Berlin angesiedelte forschungsbasierte Infrastruktureinrichtung Sozio-oekonomisches Panel (SOEP) sucht zum nächstmöglichen Zeitpunkt eine/n

SoftwareentwicklerIn (w/m/div) – (39 h/Woche)

Aufgaben

  • Softwareentwicklung (Konzeption, Entwicklung, Pflege) im Bereich des Metadatenmanagements, insbesondere des webbasierten Metadateninformationssystems paneldata.org
  • Entwicklung von Test-Suites für den Import von Metadaten
  • Pflege von paneldata.org als Software im Produktivbetrieb

Anforderungen

  • Abgeschlossenes Hochschulstudium (MA) der Informatik bzw. angrenzenden Fachgebieten und/oder Sozialwissenschaften
  • Berufserfahrung im IT-Bereich, idealerweise in einem (sozial-)wissenschaftlichen Umfeld
  • Fundierte Erfahrungen in der Programmierung in Python, insbesondere den Paketen Pandas und Django
  • Erfahrungen in der Datenbankentwicklung mit SQL (PostgreSQL/SQLite), Elasticsearch und Redis
  • Fundierte Erfahrung in der Arbeit mit Unix/Linux Systemen
  • Idealerweise Kenntnisse und Erfahrungen in der Dokumentation sozialwissenschaftlicher Daten
  • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift

Wir bieten

Das Sozio-oekonomische Panel (SOEP) ist eine wissenschaftsgetragene repräsentative Wiederholungsbefragung, die bereits seit über drei Jahrzehnten läuft. Im Auftrag des DIW Berlin werden zurzeit jedes Jahr in Deutschland etwa 30.000 Befragte in fast 11.000 Haushalten befragt. Die Daten geben unter anderem Auskunft zu Fragen über Einkommen, Erwerbstätigkeit, Bildung oder Gesundheit und werden weltweit von WissenschaftlerInnen für ihre Forschung genutzt.

paneldata.org ist das zentrale Informationssystem für unsere internationalen NutzerInnen. Es dokumentiert die komplexen Daten des SOEP, als auch von anderen sozialwissenschaftlichen Panelstudien und soll die Arbeit der Forscher mit den Mikrodaten erleichtern.

(mehr)

Austausch zu Tools für Teilnehmerverwaltung in Panels

Im Zuge der Neukonzeptionierung des GLES-Panels bei Gesis stellen wir uns folgende Fragen zu den Themen Teilnehmerverwaltungs- und Panelmanagementtools und würden uns über einen informellen Austausch dazu, gerne in den Kommentaren, sehr freuen.

Welche selbst entwickelten oder kommerziellen Lösungen werden in den einzelnen Panelprojekten zur Verwaltung der Teilnehmerinformationen (Adressen, bisherige Teilnahmen, Verifizierungsmerkmale etc.) und gegebenenfalls auch zur Feldsteuerung verwendet?

Welche Erfahrungen konnten mit unterschiedlichen Lösungen gesammelt werden?

Bei dem von uns geplanten Panelprojekt handelt es sich um ein mixed-Mode Panel (postalisch und online), in dem die Befragten zweimal jährlich befragt werden. Die Online-Komponente wird über Unipark programmiert und für die Aufbereitung wird Stata genutzt. Das Panel wird komplett bei uns (Gesis) von einem kleinen Team von vier Personen administriert und wird im Herbst starten. Für den Erwerb einer kommerziellen Panelmanagementsoftware stehen uns nur begrenzte finanzielle Mittel zur Verfügung. Im besten Fall würden wir gerne über eine Schnittstelle Teilnehmeradressen und Stammdaten verwalten und mit Umfragedaten verknüpfen, den Versand von Einladungen und Remindern steuern und die Incentivierung der Befragten organisieren.

Wir freuen uns über jeden Bericht oder weitere Fragen und berichten dann gerne ab Herbst auch über unsere Erfahrungen.

BMBF fördert Entwicklung und Erprobung von Kurationskriterien und Qualitätsstandards von Forschungsdaten

Screenshot von bmbf.de

Die Digitalisierung in der Wissenschaft eröffnet neue Forschungsmethoden und neue Möglichkeiten der Zusammenarbeit. Während auf der Ebene der Fachzeitschriften Maßnahmen zur Auswahl und Qualitätssicherung von Fachbeiträgen geläufig sind, sind auf der Ebene Forschungsdaten noch keine solchen systematischen Maßnahmen etabliert. Auch in Anbetracht der Archivierung immer größerer Mengen von Forschungsdaten werden das Kuratieren von Forschungsdaten – also die Aufbereitung, das Verwalten und Vorhalten von Forschungsergebnissen – sowie qualitätssichernde Maßnahmen in der Behandlung von Forschungsdaten zu zentralen Herausforderungen der einzelnen ­Wissenschaftlerinnen und Wissenschaftler wie auch der Forschungseinrichtungen.

Die Forschenden stehen vor der Aufgabe, Forschungsdaten unter Berücksichtigung von Authentizität, Integrität und Verständlichkeit nach systematischen Kriterien auszuwählen und aufzubereiten. In diesem Zusammenhang muss der Frage nachgegangen werden, was im jeweiligen Forschungsbereich die Qualität von Daten ausmacht und unter welchen Bedingungen aus vorhandenen Datensätzen belastbare Erkenntnisse in neuen Forschungszusammenhängen gewonnen werden können. Auch muss vor dem Hintergrund der Digitalisierung geprüft werden, ob bestehende Qualitätsstandards und qualitätssichernde Maßnahmen noch ausreichen, wenn Forschungsdaten in größerem Maßstab über Repositorien geteilt werden und wie gegebenenfalls Verbesserungen dieser Standards vorgenommen werden können. Schließlich sollen Forschungsdaten nicht länger nur im Hinblick auf den monodisziplinären wissenschaftlichen Nutzwert, sondern auch in Bezug auf andere Fachrichtungen und auf nichtwissenschaftliche Dimensionen wie wirtschaftliche Verwertung, gesamtgesellschaftliche Bedarfe oder eine kulturelle Bedeutung hin kuratiert und qualitäts­gesichert werden.

Diesen Herausforderungen wurde bislang nicht in vollständigem oder systematischem Umfang, sondern nur in Ausnahmefällen begegnet. Mit der vorliegenden Förderrichtlinie des Bundesministeriums für Bildung und Forschung (BMBF) sollen diese Herausforderungen nunmehr in der Breite und in der Praxis bewältigt werden können. Zuwendungszweck ist es, wissenschaftliche Kurationsmechanismen, Qualitätsstandards und qualitätssichernde Maßnahmen gezielt und systematisch in allen Fachrichtungen voranzutreiben. Die Zuwendungsempfänger sollen befähigt werden, für ihre Verbünde maßgebliche Kurationskriterien und Qualitätsstandards zu entwickeln oder weiterzuentwickeln, zu erproben und zu etablieren. Grenzen der Qualitätssicherung sowie Auswirkungen auf die Selbstkontrolle (gute wissenschaftliche Praxis) sollen ebenfalls aufgezeigt werden. Zielgruppe der Förderung sind Zusammenschlüsse von wissenschaftlichen Akteuren, die für ihr Forschungsumfeld eine relevante Reichweite oder im Idealfall strukturprägende Wirkungen versprechen. Dies können beispielsweise bereits existierende Forschungsverbünde und -konsortien sein, die ihre Teildisziplin inhaltlich abdecken oder bereits organisationsübergreifende und für die Teildisziplinen relevante Maßnahmen zum Management von Forschungsdaten unternommen haben.

Die gesamte Förderrichtlinie (der obiger Text entnommen wurde) enthält weitere Informationen über die Rahmenbedingungen des Programms. Antragsschluss ist der 7. September 2018, 12 Uhr.