DARIAH-DE Repository gestartet

Geistes- und Kulturwissenschaftlerinnen und -wissenschaftler können ab sofort ihre Forschungsdaten dauerhaft, nachnutzbar und referenzierbar im DARIAH-DE Repository speichern. Im Rahmen von Forschungsprojekten anfallende Daten können dort von Wissenschaftlerinnen und Wissenschaftlern verwaltet und selbstverantwortlich veröffentlicht werden. Das DARIAH-DE Repository baut dabei auf die langjährig erprobte Technologie und Erfahrungen des TextGrid Repositorys auf, unterstützt allerdings sämtliche Datenformate. Darüber hinaus wird das Einspielen von Forschungsdaten mit einem vereinfachten Publikationsprozess über eine Webanwendung ermöglicht.

Daten im DARIAH-DE Repository werden als Open Access unter freien Lizenzen veröffentlicht. Das Repository ermöglicht auch eine einfache Eintragung der Metadaten in die DARIAH-DE Collection Registry und damit eine Indizierung in der DARIAH-DE Generic Search. Weitere Informationen sind unter https://de.dariah.eu/repository zu finden, erste Erfahrungsberichte im DHd-Blog.

Der Betrieb des DARIAH-DE Repository wird durch das Humanities Data Centre (HDC) sichergestellt. Das HDC ist eine Kooperation der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB). Beide Einrichtungen sichern so gemeinsam die Nachhaltigkeit der Forschungsdaten auch langfristig ab.

Workshop „Datenaufbereitung und Dokumentation“ am 19./20. Februar 2018 in Bamberg

Das LIfBi richtet am 19./20. Februar 2018 den nächsten Workshop „Datenaufbereitung und Dokumentation“ in Bamberg aus. Die Teilnahme ist gebührenfrei.

Eine Website mit Informationen zum Workshop und einer expliziten Registrierungsseite ist ab sofort online verfügbar.

Ziel des Workshops ist der lösungsorientierte, praktische Austausch über Fragestellungen in der Datendokumentation und -produktion in sozialwissenschaftlichen Längsschnittstudien. Das Format wird wieder nach dem Modell der Open Space Technology ohne vorab festgelegtes Programm durchgeführt. Der Workshop wird sich inhaltlich selbst organisieren, d. h. Themen, Vorträge und Diskussionen werden erst vor Ort festgelegt. Daher sollten alle Teilnehmenden bereit sein, ihr Wissen mit den anderen Teilnehmenden aktiv zu teilen. Wünschenswert ist zudem, sich bereits im Vorfeld Gedanken über Themenfelder zu machen, die es wert sind, vor Ort besprochen zu werden.

Die Sprache des Workshops war bisher Deutsch. Probleme damit sollten bei der Anmeldung thematisiert werden.

Der Workshop richtet sich an Mitarbeitende in sozialwissenschaftlichen (Längsschnitts-)Studien, die operativ mit der Datendokumentation und Datenproduktion beschäftigt sind. Der Workshop hat einen mehr oder weniger festen Teilnehmerkreis, der selbstverständlich für sinnvolle Ergänzungen offen ist. Zum Workshop existiert neben diesem Blog auch auch eine Mailingliste.

Im Anschluss an die Veranstaltung findet ebenfalls am LIfBi der 12. Workshop der Panelsurveys im deutschsprachigen Raum statt. Auch die Registrierung und Informationsverteilung zu diesem Workshop läuft über die oben genannte Anmeldeseite.

Prozesse und Metadaten bei DESTATIS

In der jüngsten Ausgabe der Zeitschrift „WISTA – Wirtschaft und Statistik“ (5/2017) gibt es mindestens drei interessante Beiträge:

 

6th Annual North American Data Documentation Initiative Conference (NADDI)

The NADDI 2018 Organizing Committee announced the Call for Proposals for the 6th Annual North American Data Documentation Initiative Conference (NADDI).  The Data Documentation Initiative (DDI) is an international standard for describing the data produced by surveys and other observational methods in the social, behavioral, economic, and health sciences.

The conference theme is „Benefits of Describing National Statistics with Common Standards,“ which emphasizes the benefits of using metadata to drive efficiencies in a research data lifecycle, as well as promotes subsequent re-use of end data products, especially those generated by federal and national statistical agencies.

Aimed at individuals working in and around data and metadata, NADDI 2018 seeks submissions of presentations and posters that highlight the use of DDI and other metadata standards within research projects, official statistics, survey operations, academic libraries, and data archives.

Proposals can include:

  • Presentations
  • Panels
  • Posters
  • Workshops or Tutorials

Important Information

  • December 1: Deadline for conference proposals
  • January 5: Notification of acceptance
  • February 14: Early-bird registration deadline
  • Conference Dates: April 4-6, 2018
  • Conference Location: Bureau of Labor Statistics of the U.S. Department of Labor in Washington, D.C.

How to Submit

Submissions may be made through the conference web site.  The proposal deadline is December 1, 2017.

Zwei interessante Dienste mit bibliographischem Hintergrund

  • Jede_r Autor_in von Beiträgen in Zeitschriften mit Peer Review müsste eigentlich die doppelte Anzahl der selbst eingereichten Artikel begutachten. Allerdings werden Gutachten derzeit eher schlecht incentiviert. Publons will das Engagement für Peer Review sichtbar machen und ermöglicht eigene Profile, hier etwa das von David Richter, anzulegen und die Gutchtertätigkeit zu dokumentieren.

  • Das Forschungszentrum Jülich erprobt für drei Jahre den Online-Bibliometriedienst des Datenanbieters Altmetric, der die Resonanz auf Publikationen in sozialen Medien, Online-Nachrichtenportalen und anderen Websites abbildet. Um die Online-Resonanz für Publikationen zu erkennen, werden ab sofort ausgewählte Pressemitteilungen des Forschungszentrums zu wissenschaftlichen Publikationen auf der Website des Forschungszentrums mit einem entsprechenden Piktogramm versehen (Beispiel). Dieses steht bei der Angabe der Originalpublikation und enthält Anzahl der Nennungen und Informationen zu den Kanälen, die auf der Website des Anbieters näher spezifiziert werden. Einige Angebote des kommerziellen Dienstes können Forschende auf privaten Seiten kostenlos nutzen. [via Rfii_infoticker]

Neuigkeiten von RDA Deutschland

Logo Research Data Alliance
  • Am 7. September 2017 wurde der Verein Research Data Alliance Deutschland (RDA DE) gegründet.
  • Gründungsmitglieder sind: Doris Wedlich (KIT), Claudia Oellers (früher RatSWD), Heike Neuroth (FH Potsdam), Kathrin Beck (MPG), Christoph Bruch (GFZ), Jack Thoms (DFKI) und Peter Wittenburg (Max Planck Compute and Data Facility)
  • Die nächste Mitgliederversammlung ist während des RDA P11 Plenaries in Berlin geplant, derzeit also am 20. März 2018 ab 17 Uhr.
  • Eine Mailingliste für für RDA DE wurde eingerichtet.
  • Es gibt einen Ideenwettbewerb „Neue Datenräume kreativ nutzen“ (PDF).
  • Der Verein strebt den Status einer nationalen Einrichtung der global aktiven Research Data Alliance (RDA) an.
  • Es findet kein RDA-Deutschland-Treffen im Jahr 2017 statt.
  • Das RDA Eleventh Plenary Meeting findet vom 21. bis 23. März 2018 in Berlin statt.

EDDI17 Lausanne: Programm veröffentlicht und Anmeldung startet

Die diesjährige EDDI findet am 5. und 6. Dezember in Lausanne statt. Für die Veranstaltung am Genfersee liegt nun das Programm vor und Anmeldungen sind ebenfalls möglich. Ausrichter ist FORS, das Kompetenzzentrum für die Sozialwissenschaften in der Schweiz.

Vor und nach der eigentlichen Konferenz gibt es Tutorials und (zum Teil nicht öffentliche) Sidemeetings.

Masse statt Klasse? – Entstehungsprozesse, Qualitätsprobleme und Verwendungsmöglichkeiten von prozessgenerierten Daten im digitalen Zeitalter

Auch wenn prozessproduzierte Massendaten (sogenannte „Big Data“) etwa in Form von staatlichen Verwaltungsdaten eine mehr als zweihundertjährige Tradition haben, hat sich deren Verfügbarkeit in den letzten Jahrzehnten dramatisch gesteigert:

  1. Zum einen werden administrative Daten, die als Nebenprodukt von organisationalen und behördlichen Prozessen entstehen (z.B. Registerdaten, Kundendaten), nicht nur seit den 1970er Jahren digital gespeichert und verarbeitet, sondern werden seit Ende der 1990er Jahre etwa über Forschungsdatenzentren und den RatSWD zunehmend für wissenschaftliche Analysen zugänglich gemacht.
  2. Zum anderen entstehen als Nebenprodukt der digitalen Kommunikation im Web 2.0 neue Arten von Massendaten (z.B. Websites, Blogs, Social Media), die – anders als frühere prozessproduzierte Daten – von den Nutzern dieser Dienste unbewusst und/oder freiwillig generiert werden, bei denen sich die Geschwindigkeit der Datenproduktion stark erhöht hat und die Rechte an den Daten nicht mehr bei staatlichen Akteuren, sondern bei Firmen liegen oder uneindeutig sind.

Nicht nur die Forschungsdatenzentren, sondern auch historische Datenarchive und eine Vielzahl universitärer Projekte arbeiten daran beide Datensorten, also bisher unerschlossene alte Datensammlungen ebenso wie neue digitale Daten, zunehmend für die Forschung zugänglich zu machen. Damit erweitern sich Möglichkeiten für die Sozialwissenschaften, soziale Phänomene sowohl aus aktueller, als auch historischer Blickrichtung zu analysieren. Das gilt umso mehr, je stärker Datensätze miteinander verknüpft und digitale Massendaten in Kombination miteinander und mit forschungsinduzierten Daten einer Analyse zugänglich gemacht werden können.

Im methodologischen Umgang mit diesen Massendaten zeichnet sich ein erstaunlicher Gegensatz ab:

  1. Die empirische Sozialforschung fokussiert sich in ihren Analysen vorwiegend auf die klassischen administrativen Daten, und die Erkenntnis, dass diese Daten sozial konstruiert sind und damit eigene methodologischen Probleme mit sich bringen, die bei der Analyse reflektiert werden müssen. Diese Methodendebatte war bereits ein wesentliches Moment der Gründung der deutschsprachigen Soziologie und der quantitativen empirischen Sozialforschung, die in den 1970ern wiederbelebt wurde. Als Ergebnis dieser Debatte wurde das Konzept der „Datenkunde“ (als alternative zur „Fehlerkunde“ im Survey-Prozess) eingeführt, verbunden mit der Forderung, dass vor der Auswertung eines
    Datenbestands analysiert werden muss, wie die Datenproduktion durch organisationale Regeln, Alltagspraktiken der Datenproduzenten sowie Verhalten der Klienten überformt wird, um daraus die spezifischen Verzerrungen der Population bzw. Stichprobe sowie der Fehler in den Daten zu identifizieren. In den letzten zwei Jahrzehnten existiert vor allem im Kontext der Forschungsdatenzentren eine intensive Methodenforschung, die diese spezifische Verzerrungsprozesse und die sich daraus ergebenden methodologischen Probleme erkundet.
  2. Die internationale „Computational Social Science“ fokussiert in ihren Analysen vorwiegend auf die im Zuge der digitalen Kommunikation entstandenen neuen Sorten von Massendaten. In der Methodenforschung wendet sich die „Computational Social Science“ zunehmend auf neue Analysetechniken und Algorithmen zur Auswertung von Big Data zu. Auch hier zeichnet sich eine Methodendebatte an, die vornehmlich pragmatische Machbarkeitsprobleme ebenso wie die Strukturierung durch Technik thematisiert.

Diese beiden Forschungsstränge sind bislang kaum verbunden und weisen wechselseitige blinde Flecken auf. Durch einen produktiven Austausch könnten beide Forschungsstränge wechselseitig profitieren: Beispielsweise erscheint eine Debatte über die Potentiale neuer Auswertungstechniken aus den Computational Social Science im Bereich der historischen Massendaten vielversprechend. Anderseits erscheint eine kritische Auseinandersetzung mit der Fehlerhaftigkeit und internen Verzerrung von jenen Daten, die in digitalen Prozessen generiert wurden, notwendig.

Dieser Workshop will einen Beitrag zu einem solchen Austausch leisten und hat das Ziel, die Entstehungsbedingungen analoger und digitaler prozess-generierter Daten zu reflektieren und ihre damit verbundenen Verwendungsschwierigkeiten zu diskutieren. Hierzu gehört auch die Frage, ob und wie das Konzept der „Datenkunde“ erweitert oder aktualisiert werden muss. Damit rücken neben messbezogenen Eigenschaften gesellschaftliche, politische und wirtschaftliche Bedingungen in die Betrachtung, die eine Interpretation von Analyseergebnissen erst sinnvoll machen. Der Workshop will diese methodologischen wie theoriebezogenen Fragen auch mit der Absicht stellen, Möglichkeiten aufzuzeigen, mit denen die Aussagekraft prozessgenerierter Daten in sozialwissenschaftlichen Untersuchungen gesteigert werden kann.

Wenn Sie an dem Workshop mit einen Vortrag/einer Präsentation teilnehmen wollen, senden Sie uns bitte das Thema bis zum 30.10.2017 per -Mail an nina.baur@tu-berlin.de zu.