SLOW-Austauschrunde zu Programmiervorlagen

Im Anschluss an den SLOW 2026 wollen wir eine kleine Projektgruppe gründen, die den Austausch über unsere Programmiervorlagen vertieft.
Der erste Schritt soll sein, sich in 2 Terminen die verschiedenen (Word-)Vorlagen zu zeigen. Dabei können wir schonmal viel über Aufbau und Unterschiedlichkeit lernen. Daran anschließend gibt es die Idee, sich regelmäßig auszutauschen, um das mögliche Entstehen von CSV-Datenbanken oder anderen Formaten miteinander zu diskutieren und zu optimieren.

Die ersten beiden Termine für den Austausch sind
Freitag der 26. Juni, 10-11:30 Uhr
und Freitag der 24. Juli, 10-11:30 Uhr

Die Termine finden bei Webex statt:
https://baua.webex.com/wbxmjs/joinservice/sites/baua/meeting/download/1456794fd8ee4c70aefcb84676129975?MTID=m58d484b2d16d2a6dbd25014d1658e45b
Meeting-Kennnummer (Zugriffscode): 2785 383 8093

Diese Einladung geht an alle interessierten Kolleginnen und Kollegen, wir freuen uns über eine rege Teilnahme!
Bei Fragen oder Wunsch nach Aufnahme in den Verteiler: nold.johanna@baua.bund.de

SLOW 2026 in Nürnberg: Drei Tage Werkstatt für Survey‑Praxis, Datenqualität und Zusammenarbeit

Der SLO‑Workshop 2026 in Nürnberg war erneut das, was SLOW im Kern ausmacht: ein gemeinsamer Denk‑ und Arbeitsraum für Menschen, die große Surveys verantworten, weiterentwickeln oder kritisch begleiten. Drei Tage lang ging es um sehr konkrete Praxisprobleme – von Rednerlisten über Incentives, Metadaten und Panelpflege bis hin zu KI‑gestützter Kodierung offener Angaben. Vieles davon ist nicht neu, aber selten wird so offen, detailliert und projektübergreifend darüber gesprochen.

 

Moderation, Macht und Rednerlisten

Gleich zu Beginn stand ein Thema auf der Agenda, das auf den ersten Blick wenig „methodisch“ wirkt, aber strukturell zentral ist: quotierte Rednerlisten. Diskutiert wurde weniger das Instrument an sich, sondern die damit verbundenen Hürden. Quotierte Rednerlisten brauchen Moderation, sie machen Ungleichheiten sichtbar und werfen Fragen nach Intersektionalität und der Berücksichtigung nicht‑binärer Personen auf. Gleichzeitig wurde betont, dass Rednerlisten – egal in welcher Form – für viele eine entlastende Struktur darstellen. Einigkeit bestand darin, dass dieses Instrument gesellschaftlichen Sexismus nicht beseitigt, aber ausprobiert werden sollte. Auch und gerade bei SLOW selbst. Bemerkenswert war die klare Benennung der Verantwortung männlich gelesener Teilnehmer, das Thema aktiv einzubringen.

Feldarbeit ohne Pausen, Incentives ohne Bargeld?

Mehrere Sessions drehten sich um praktische Probleme dauerhafter oder hochfrequenter Befragungsfelder. Bei sogenannten „High‑Frequency“-Befragungen gibt es keine natürlichen Feldpausen für Instrumentenüberarbeitungen oder sicherheitsrelevante Updates. Der pragmatische Konsens: kurze, gut kommunizierte Serviceunterbrechungen in Randzeiten sind vertretbar, etwa ergänzt durch Maintenance‑Seiten.

Eng damit verknüpft war die Diskussion um Incentives. Prepaid‑Cash ist wirksam, aber zunehmend problematisch – organisatorisch, international, reputational. Alternativen wie Postpaid‑Cash, Gutscheine, Spendenoptionen oder Punktesysteme werden inzwischen breit eingesetzt und vielfach gut angenommen. Wichtig ist weniger die konkrete Form als Transparenz und zeitnahe Auszahlung. Auffällig war auch, wie selbstverständlich IBANs angegeben werden, wenn der Prozess erklärbar ist.

Panelbereinigung, Attrition und die Frage nach „Kosmetik“

Ein wiederkehrendes Spannungsfeld betrifft den Umgang mit wiederholten Wellenaussetzern. Während diese für engmaschige Längsschnittanalysen kaum nutzbar sind, können sie für Querschnitte oder andere Analyseformen weiterhin relevant sein. Ob man sie im Panel hält, ist weniger eine normative als eine Design‑ und Kostenfrage. Deutlich wurde auch: Kennzahlen wie Attrition und Response Rate sind oft schwer vergleichbar und sollten nicht aus rein kosmetischen Gründen optimiert werden. Hinzu kommen datenschutzrechtliche Überlegungen, etwa die Frage, wie lange ein einmal gegebenes Panel‑Einverständnis tatsächlich trägt.

Preloads, Variablennamen und Harmonisierung

Technischer wurde es bei Preloads, Variablennamen und Harmonisierung. Preloads sind ein wichtiges Mittel zur Verkürzung der Befragungsdauer, bergen aber Risiken: Überfilterung, geringe Fallzahlen und potenzielle Re‑Identifikation. Konsens bestand darin, dass Preloads präzise dokumentiert werden müssen – Herkunft, Bildung, Einsatzorte. Bei Variablennamen blieb die alte Frage offen: sprechend oder systematisch durchnummeriert? Ein Mittelweg zeichnet sich ab, etwa durch zusätzliche Ebenen wie „concept“ oder klare Versionierungen. Besonders sensibel diskutiert wurde die Harmonisierung von Geschlecht, gerade bei kleinen Fallzahlen und im Spannungsfeld zwischen Differenzierung und Datenschutz.

Metadaten als Rückgrat – nicht als Anhängsel

Ein Schwerpunkt des zweiten Tages lag auf Metadaten. Schnell wurde klar, wie schwer eine saubere Abgrenzung zu Paradaten fällt und wie sehr der Nutzen von Metadaten von der jeweiligen Zielstellung abhängt. Dennoch war der Tenor eindeutig: Strukturierte Metadaten sind kein Luxus, sondern Voraussetzung für Qualität, Nachvollziehbarkeit und Automatisierung. Diskutiert wurden einfache, offene Lösungen wie CSV‑basierte Metadatendatenbanken ebenso wie komplexere Systeme. Besonders betont wurde der Vorteil, Fragen, Variablen, Instrumente und Dokumentation systematisch miteinander zu verknüpfen – bis hin zur automatisierten Erstellung von Fragebögen, Codebooks und Methodenberichten.

Kommunikation mit Teilnehmenden: Mails, Papier und Pflege

Serienmails, Panelpflege und Teilnehmerkommunikation zogen sich wie ein roter Faden durch mehrere Sessions. Mail‑Versand ist allgegenwärtig, aber technisch und organisatorisch fragil: Spamfilter, Bounces und intransparente Providerregeln machen das Feld zur Blackbox. Gleichzeitig berichten viele Projekte, dass papierhafte Reminder nach wie vor sehr effektiv sind. Panelpflege wurde nicht als „nice to have“, sondern als eigenständige Aufgabe verstanden: Community‑Gedanke, Ergebnisrückspielung, Portale, Grußkarten, Social Media – alles mit Augenmaß und klarer Zielgruppenorientierung. Besonders sensibel ist die Frage, welche Ergebnisse man an Teilnehmende zurückspielt und wie, ohne zu demotivieren oder Reaktanz auszulösen.

Modi, Technik und Testung

Großen Raum nahmen Mode‑Wechsel ein, insbesondere Push‑to‑Web‑Ansätze. Berichtet wurde von klaren Mode‑Effekten, notwendigen Instrumentenanpassungen und der wachsenden Bedeutung von User Experience, gerade bei längeren Interviews. Parallel dazu wurde über Programmiertestungen gesprochen: Vollständige Tests sind aufwendig, deshalb wurden grafische und modellbasierte Ansätze diskutiert, die technische Prüfungen effizienter machen sollen. Auch hier zeigte sich erneut der Wert strukturierter Metadaten als gemeinsame Grundlage.

KI, offene Angaben und neue Erhebungsformen

Am dritten Tag rückten Innovationen stärker in den Vordergrund. Besonders anschaulich war die Vorstellung der KI‑gestützten Kodierung offener Angaben mit lokalen LLMs. Der Fokus lag weniger auf dem „Wow‑Effekt“ als auf sauberen Prozessen: Kodierschemata, Prompting‑Strategien, Evaluation gegen Goldstandards. Gleichzeitig wurde offen über Grenzen gesprochen – technische Aufwände, Datenschutz, institutionelle Rahmenbedingungen. Ähnlich ambivalent fiel der Blick auf neue Erhebungsformen wie Datenspenden oder CALVI aus: großes Potenzial, aber erhebliche Herausforderungen für Qualität, Vergleichbarkeit und Akzeptanz.

SLOW bleibt Arbeit im besten Sinne

Was SLOW 2026 in Nürnberg ausgezeichnet hat, war weniger ein einzelnes Ergebnis als die gemeinsame Arbeitsweise. Viele Themen blieben bewusst offen, manches widersprüchlich. Aber genau darin liegt die Stärke dieses Formats: Probleme werden nicht glattgezogen, sondern aus unterschiedlichen Perspektiven durchdacht. SLOW bleibt eine Werkstatt – und das Blog bleibt das Lagerfeuer, an dem die Diskussion weitergeht.

Dieser launische Bericht ist das Werk von Copilot, basierend auf einem Google Dokument bei dem viele mitgemacht haben und das viele zusätzliche Details enthält.

 

Der Workshop zwischen den Workshops

Beim SLOW in Nürnberg wurde gewünscht, dass wir Instant-Kommunikation zwischen den Workshops anbieten.

Wer eine Nachricht schreibt an @r7:matrix.org (Knut Wenzig) kann Zugang bekommen.

Aktuell sind wir zu dritt. Werden wir mehr?

Wer neu ist bei Matrix, findet eine ganz gute Einführungen hier: https://docs.chat.academiccloud.de/first-steps/index.html. Dort kann man sich auch einen Account holen.

Es gibt auch noch eine Mailingliste, aber die ist eher weniger aktiv – und schon gar nicht instant: Mailingliste zur Datenproduktion und Datenmanagement – Survey Data Blog

EDDI2025: Call for Proposals

Die EDDI2025 wird vom Forschungsdokumentationszentrum am Zentrum für Sozialwissenschaften HUN-REN in Budapest von Montag, dem 1. Dezember bis Freitag, dem 5. Dezember 2025 als Präsenzveranstaltung ausgerichtet:

  • Tutorials und Workshops: Montag, 1. Dezember 2025
  • Konferenz: Dienstag, 2. Dezember – Mittwoch, 3. Dezember 2025
  • Begleitveranstaltungen: Donnerstag, 4. Dezember – Freitag, 5. Dezember 2025

Die Data Documentation Initiative (DDI) ist ein internationaler Standard zur Beschreibung von Daten, die durch Umfragen und andere beobachtende Methoden in den Sozial-, Verhaltens-, Wirtschafts- und Gesundheitswissenschaften erhoben werden.

Die Veranstaltung bringt DDI-Nutzer*innen und Fachleute aus ganz Europa und der Welt zusammen. Alle, die daran interessiert sind, DDI zu entwickeln, anzuwenden, zu hinterfragen oder zu nutzen, sind herzlich eingeladen, teilzunehmen und Beiträge zu präsentieren.

Gesucht werden Beiträge zu allen Aspekten von DDI, darunter:

  • Fallstudien
  • Ausgereifte Implementierungen
  • Erste Implementierungen
  • Zusammenspiel von DDI mit anderen Standards oder Technologien
  • Projekte in frühen Phasen, in denen DDI in Betracht gezogen wird
  • Kritiken an DDI
  • Aktivitäten zum Aufbau der Community

Der Call for Proposals ist veröffentlicht und endet am 1. September 2025.

TREE, Universität Bern, sucht eine Leiterin / einen Leiter des Data Managements

TREE (Transitions from Education to Employment) sucht ein:e Nachfolger:in der jetzigen Stelleninhaberin als Leiter:in des Data Managements. Hier sind die Links zur Stellenausschreibung und zur TREE-Website:

Call for Participation: Stichwort Programmiertestung – Wie ist die Surveypraxis?

Danke an ChatGPT für die Illustration. Das war das beste Bild, auch wenn ein höherer Frauenanteil wünschenswert gewesen wäre.

Beim SLO-Workshop in Mannheim hat sich eine Gruppe gebildet, die sich zunächst einen Überblick über die Praxis der Programmiertestung in Surveys verschaffen will. Daraus kann dann ein gemeinsames Verständnis darüber entwickeln, was unter Programmiertestung verstanden werden soll und welche Empfehlungen gegeben werden können.

In einem ersten Schritt soll jede interessierte Studie bzw. jedes interessierte Institut beschreiben, wie die Programmiertestung abläuft. Hierzu soll auch Material zur Verfügung gestellt werden, das in dem Zusammenhang genutzt bzw. erstellt wird (z.B. Checklisten für Hiwis, Filter-Diagramme/Bäume, Fehlerlogs). Auch die Testung von Preloads, kann thematisiert werden. Idealerweise soll das Vorgehen auf etwa einer Textseite beschrieben werden, was mit weiterem Material illustriert werden kann. Auch Literaturhinweise sind willkommen. Die Beschreibungen sollen bis 16. März bei Knut Wenzig eingehen.

Dieses Material soll dann gemeinsam gesichtet und diskutiert werden. Im weiteren Verlauf könnte über die Rolle von Metadaten in diesem Prozess diskutiert werden und am Ende könnte eine Veröffentlichung der Arbeitsergebnisse etwa in der Zeitschrift Bausteine Forschungsdatenmanagement stehen.

Interesse an der Bearbeitung dieses Themas wurde von Kolleg*innen aus LIfBi, dem DJI, TREE, IAB, SHARE, GESIS und DIW Berlin gezeigt.

Bericht vom SLOW2025 in Mannheim

Mit Unterstützung von BERD und KonsortSWD hat an der Universität Mannheim vom 3. bis 5. Februar 2025 der Survey Lifecycle Operators Workshop stattgefunden. Das großartige Local Organizing Team stammte aus Bibliothek und GIP. Gekommen waren 65 Menschen, die für 21 Studien im deutschsprachigen Raum arbeiten.

In bewährter Open-Space-Technologie wurde ein anspruchsvolles Workshop-programm organisiert.

Hier ein Überblick über die Inhalte der Sessions:

In der Session „Pre-Session, Dokumentation“ wurde zu Beginn des Workshops die Bedeutung zentraler Dokumentationsansätze betont. Es ging um den Einsatz von Datenbank-Tools und „Meta-Dokumenten“, um den schnellen Zugriff auf wichtige Informationen zu ermöglichen. Gleichzeitig stand ein offenes Fehlermanagement sowie der Austausch von Learnings im Mittelpunkt. Die Diskussion legte den Grundstein für eine strukturierte Arbeitsweise im weiteren Verlauf.

In der Session „Panel und Linkage Consent, Panelstabilität“ wurden Strategien zur Erhöhung der informierten Einwilligung thematisiert. Die Teilnehmenden diskutierten, wie Zuspiel- und Panelbereitschaft optimal abgefragt werden können, um eine hohe Datenqualität zu sichern. Verschiedene Ansätze zur Platzierung der Consent-Anfragen sowie der Umgang mit Interviewabbrüchen wurden kritisch beleuchtet. Ergänzend lieferten Praxisbeispiele und Literaturhinweise wichtige Anknüpfungspunkte für die Optimierung der Erhebungsmethoden.

Die Session „(interne) Dokumentation“ fokussierte auf den internen Austausch und die Wissenssicherung. Die Diskussion drehte sich um den Einsatz von Projektmanagement- und Kollaborationstools sowie den Vergleich zu manuell strukturierten Verzeichnisstrukturen. Es wurde erörtert, wie durch klare Benennungskonventionen und regelmäßige Abstimmungen ein reibungsloser Informationsfluss gewährleistet werden kann. Die Teilnehmenden waren sich einig, dass eine solide interne Dokumentation essenziell ist.

In der Session „Austausch/Transfer von Metadaten“ stand die Rolle standardisierter Metadaten im Lifecycle von Surveys im Vordergrund. Es wurde diskutiert, wie bisher ungenutzte Metadaten systematisch erfasst und durch KI-basierte Ansätze besser zugänglich gemacht werden können. Unterschiedliche Standards wie DDI Codebook und DDI Lifecycle wurden miteinander verglichen. Das Ziel war, einen einheitlichen Standard zur Steigerung des Datenmehrwerts zu etablieren.

Die Session „Soziodemographie und sozialer Wandel“ behandelte die Weiterentwicklung soziodemographischer Standarditems. Die Diskussion hob hervor, dass traditionelle Messinstrumente kontinuierlich an den sozialen Wandel – insbesondere in Bezug auf Geschlecht und Migration – angepasst werden müssen. Vorschläge zur Vereinfachung und Harmonisierung verschiedener Fragebögen wurden intensiv erörtert. Die Teilnehmenden strebten eine zukunftsfähige und valide Datengrundlage an.

In der Session „Situation/Landschaft der Erhebungsinstitute“ wurden strukturelle Veränderungen in der Erhebungslandschaft thematisiert. Es ging um die Auswirkungen von Fusionen und organisatorischen Umstrukturierungen auf Qualität, Angebot und Preisgestaltung der Umfragedienstleistungen. Zudem wurde der Trend zu selbstadministrierten Erhebungen kritisch diskutiert. Dabei rückte die Bedeutung einer flexiblen Infrastruktur in den Fokus.

Die Session „Sampling, Rekrutierung und Gewichtung“ setzte sich mit den methodischen Herausforderungen im Sampling auseinander. Es wurden Techniken des Oversamplings sowie die Integration variierender Designgewichte beleuchtet. Verschiedene Ansätze zur Rekrutierung und Incentivierung von Befragten wurden vorgestellt. Praktische Erfahrungen zeigten, wie diese Herausforderungen erfolgreich gemeistert werden können.

In der Session „(innovative) Incentivierung“ wurden kreative Ansätze zur Steigerung der Teilnahmebereitschaft diskutiert. Die Teilnehmenden stellten unkonventionelle Maßnahmen wie personalisierte Neujahrskarten, Sondermünzen und direkte Ergebnisrückmeldungen vor. Es wurde erörtert, wie innovative Incentive-Modelle langfristig die Motivation der Teilnehmenden erhöhen können. Erste Experimente mit Prepaid-Incentives lieferten interessante Impulse.

Die Session „Paradaten“ widmete sich dem Potenzial ungenutzter Metadaten. Es wurde diskutiert, wie Paradaten systematisch aufbereitet und ausgewertet werden können, um interne Analysen zu verbessern. Herausforderungen bei der Vergleichbarkeit und Standardisierung dieser Daten wurden angesprochen. Die Diskussion offenbarte neue Möglichkeiten zur Optimierung interner Datenprozesse.

In der Session „Automatisierte Programmiertestung“ ging es um die Überprüfung der programmierten Logik in Befragungsinstrumenten. Die Teilnehmenden diskutierten, inwieweit automatisierte Testverfahren konzeptionelle Fehler erkennen können. Vorschläge wie die automatische Generierung von Testcases und visuelle Entscheidungsbäume wurden als Ergänzung zu manuellen Tests vorgestellt. Es wurde erkannt, dass automatisierte Ansätze ein wertvolles, wenn auch ergänzendes Werkzeug darstellen.

Die Session „Ethikkommission“ beschäftigte sich mit der Rolle und Organisation von Ethikprüfungen in der Surveyforschung. Es wurde erörtert, in welchem Umfang einzelne Module oder komplette Studien einer ethischen Prüfung bedürfen. Die Diskussion hinterfragte, wer als Ethikkommission agieren kann und welche Verfahren zielführend sind. Dabei wurde die Balance zwischen umfassender Prüfung und praktischer Umsetzbarkeit thematisiert.

In der Session „Datenzugang sensible Daten / Mögliche Quellen zur Anreicherung von Befragungsdaten“ stand der sichere Zugang zu sensiblen Daten im Mittelpunkt. Es wurden Strategien zur Pseudonymisierung und getrennten Bereitstellung von Befragungs- und Kontaktdaten diskutiert. Verschiedene Best-Practice-Beispiele, etwa im Umgang mit Geodaten, wurden vorgestellt. Ziel war es, einerseits den Datenschutz zu gewährleisten und andererseits den Nutzwert der Daten zu steigern.

Die Session „Teilnehmer:innen Motivation“ thematisierte Maßnahmen zur Steigerung der Motivation der Panelteilnehmenden. Kreative Mitmachaktionen – von analogen Bildwettbewerben bis zu digitalen Vorbefragungen – wurden als Mittel zur Panelpflege vorgestellt. Es wurde betont, dass sowohl der Erstkontakt als auch kontinuierliche Anreize entscheidend sind. Die Diskussion zeigte, wie vielfältige Ansätze zur langfristigen Bindung beitragen können.

In der Session „Qualitative Aspekte der Survey Methodology“ lag der Schwerpunkt auf der Ergänzung quantitativer Methoden durch qualitative Pretests. Die Teilnehmenden diskutierten, wie qualitative Interviews und interaktive Pretests dazu beitragen können, die Wirkung von Frageformulierungen besser zu verstehen. Kommunikationsstrategien und die Gestaltung von Studientiteln sowie Anschreiben wurden ebenfalls erörtert. Es wurde betont, dass selbst suboptimale Pretests wertvolle Erkenntnisse liefern.

Die Session „Messung Geschlecht“ fokussierte auf die Herausforderungen der Geschlechtererfassung in Umfragen. Es wurden sowohl biologische als auch soziale Dimensionen von Geschlecht diskutiert und Ansätze zur Integration nicht-binärer Kategorien vorgestellt. Die Teilnehmenden erörterten, wie durch differenzierte Fragestellungen Diskriminierungserfahrungen besser abgebildet werden können. Ziel war es, flexible und inklusive Messinstrumente zu entwickeln.

In der Session „KI“ wurden die Einsatzmöglichkeiten von Künstlicher Intelligenz in der Surveyforschung beleuchtet. Es ging um den praktischen Einsatz von KI bei der Datendokumentation, Fragebogenentwicklung und Auswertung offener Antworten. Chancen und Limitationen der Technologie wurden offen diskutiert, wobei auch institutionelle Richtlinien eine Rolle spielten. Die Diskussion zeigte das Potenzial von KI, traditionelle Arbeitsprozesse zu ergänzen.

Die Session „Datenlöschungen von Befragten“ befasste sich mit der Umsetzung von Löschprozessen im Rahmen der Datenschutz-Grundverordnung. Es wurde diskutiert, ob nur Kontaktdaten oder auch Befragungsdaten gelöscht werden sollten und welche automatisierten sowie manuellen Verfahren dabei Anwendung finden. Die Herausforderungen, Datenintegrität und Anonymität gleichzeitig zu gewährleisten, wurden intensiv beleuchtet. Die Diskussion lieferte praxisnahe Ansätze für den Umgang mit Löschanfragen.

In der Session „(optisches) Fragebogendesign“ stand die Verbesserung der visuellen Benutzerführung in Online-Umfragen im Fokus. Die Teilnehmenden präsentierten Ideen wie Fortschrittsbalken, farbliche Elemente und thematische Zwischenseiten zur Auflockerung langer Fragebögen. Es wurde diskutiert, wie ein konsistentes Design auf verschiedenen Endgeräten umgesetzt werden kann. Ziel war es, die Orientierung der Befragten zu erleichtern und Ermüdungserscheinungen zu verringern.

Die Session „Preload CTRL“ präsentierte ein Konzept zur gleichzeitigen Verwaltung mehrerer Stichproben im Feld. Es ging um die Möglichkeit, verschiedene Sample-Teile parallel zu steuern und dynamisch zu aktualisieren. Ansätze zur zeitnahen Integration von Korrekturen und Anpassungen wurden erörtert. Obwohl konkrete Lösungen noch in Arbeit sind, zeigte die Diskussion großes Interesse an flexibleren Feldmanagement-Tools.

In der Session „Vergleichbarkeit über Datensätze, Kohorten, Länder hinweg“ wurde die Herausforderung der Harmonisierung unterschiedlicher Datensätze thematisiert. Die Diskussion drehte sich um Ansätze zur Standardisierung von Variablen und Messinstrumenten über Studien und Ländergrenzen hinweg. Einheitliche Standards wurden als Schlüsselfaktor für valide länderübergreifende Analysen hervorgehoben. Die Teilnehmenden beleuchteten sowohl methodische als auch praktische Umsetzungsfragen.

Die Session „Feldmonitoring/ Best Practice Qualitätsmonitoring“ widmete sich der kontinuierlichen Überwachung des Erhebungsprozesses. Es wurden verschiedene Kennzahlen und Dashboard-Tools vorgestellt, die eine frühzeitige Intervention ermöglichen sollen. Die Diskussion zeigte, wie durch regelmäßiges Monitoring die Interviewqualität verbessert werden kann. Ziel war es, präventiv gegen Fehlentwicklungen im Feld vorzugehen.

In der Session „Zufriedenheit Fragesteller:innen“ stand die Motivation derjenigen im Vordergrund, die Umfragefragen einreichen. Es wurde betont, dass die Vorteile von Panelstudien stärker kommuniziert werden sollten, um Fragesteller:innen langfristig zu binden. Ansätze zur Erweiterung des Dienstleistungsangebots wurden diskutiert. Die Teilnehmenden unterstrichen, dass ein intensiver Austausch zwischen Fragestellern und Panelbetreibern essenziell ist.

Die Session „Software für Online Umfragen / Outsourcing vs. mehr in house“ beleuchtete die Vor- und Nachteile von externen Softwarelösungen im Vergleich zu internen Entwicklungen. Es wurde erörtert, wie Abhängigkeiten von Lizenzgebern reduziert und interne Kompetenzen gestärkt werden können. Erfolgreiche Beispiele mit Open-Source-Software wurden als mögliche Alternative vorgestellt. Die Diskussion zeigte, dass eine hybride Strategie je nach den vorhandenen Ressourcen sinnvoll sein kann.

In der Session „Methodenswitch CATI/CAPI → CAWI“ wurden die Herausforderungen des Übergangs von klassischen Interviewmethoden zu webbasierten Umfragen diskutiert. Die Teilnehmenden beleuchteten notwendige Anpassungen im Fragebogen, um eine reibungslose Umstellung zu gewährleisten. Dabei wurden Themen wie Kontaktstrategien und der Umgang mit erhöhten Missings aufgegriffen. Das Ziel war ein fließender Methodenwechsel, der den Ansprüchen aller Beteiligten gerecht wird.

Die Session „Deep Learning“ untersuchte das Potenzial moderner Algorithmen zur automatischen Kodierung offener Antworten und unstrukturierter Daten. Es wurden Ansätze wie Audiotranskription und Sentiment-Analysen vorgestellt, die neue Einblicke in die Datenauswertung ermöglichen können. Praktische Erfahrungen wurden ausgetauscht und Herausforderungen bei der Implementierung diskutiert. Die Diskussion machte deutlich, dass Deep Learning innovative Möglichkeiten in der Datenaufbereitung eröffnet.

In der Session „Datenqualitätsprüfung“ wurde die Implementierung verschiedener Prüfverfahren zur Sicherung der Datenqualität erörtert. Es ging um Filterchecks, Rangechecks und den Umgang mit Inkonsistenzen sowohl innerhalb als auch zwischen Befragungswellen. Die Teilnehmenden diskutierten, wie fehlerhafte Angaben markiert und – wenn möglich – korrigiert werden können. Dabei wurde betont, dass eine transparente Bereitstellung von Original- und bereinigten Daten essenziell ist.

Die Session „Steuerungskreis für Surveys“ schloss den Workshop ab und beschäftigte sich mit der Einrichtung zentraler Koordinationsgremien. Es wurde diskutiert, wie durch Bündelung von Expertise standardisierte Prozesse und ein intensiver Wissensaustausch über verschiedene Surveys hinweg ermöglicht werden können. Die Idee einer zentralen Beratungseinheit zur Unterstützung von Studien wurde dabei als zukunftsweisend erachtet. Der interdisziplinäre Austausch in einem solchen Gremium wurde als entscheidend für die langfristige Effizienzsteigerung hervorgehoben.

ChatGPT hat den Kurzbericht über die Sessions auf Grundlage eines kollaborativen Protokolls erzeugt, das zum Teil viel reichhaltiger ist und auch Hinweise auf weiterführendes Material enthält.

Recommendations on Data Versioning

We often say that “A is a version of B” but do not explain what we mean by “version”. We imply that B was somehow derived from A or that they share a common ancestor. But how is B related to A? How do they differ? Do they differ in content or format? What is the significance of this difference? While this sounds like a question about the provenance of a dataset, it goes beyond that and asks questions about the identity of a digital object and the intellectual and creative work it embodies.

The project “PID Reference Model for the Versioning of Research Data” at the Chair of Information Management at the Berlin School of Library and Information Science (IBI) at Humboldt Universität zu Berlin focused on the versioning of research data publications in the context of ongoing discussions about the reform of research evaluation from an infrastructural perspective. As an output of the project, the team led by visiting fellow Jens Klump developed a set of guidelines on how to version research data.

Klump, J., Pampel, H., Rothfritz, L., & Strecker, D. (2024). Recommendations on Data Versioning. Berlin, Germany: Humboldt-Universität zu Berlin. https://doi.org/10.5281/zenodo.13743876

This recommendation outlines key aspects of research data versioning for scientists and information management professionals at research-performing organisations. It is based on prior work by the Research Data Alliance Data Versioning Working Group.

Here is a presentation by the team lead in German: https://www.ibi.hu-berlin.de/de/von-uns/bbk/abstracts/ss_24/klump_versionen

Women in Data Science: Munich Conference, October 10, 2024

On October 10, 2024 there will be some fantastic speakers in the heart of Munich.
WiDS Munich is independently organized by LMU, TUM, MDSI, BERD@NFDI, TUM Think Tank and Sixt SE to be part of the mission to increase participation of women in data science and to feature outstanding women doing outstanding work.Women in Data Science (WiDS) Munich is a regional one-day event organized by the Ludwig-Maximilians-University Munich (LMU), the Technical University Munich (TUM) and Sixt, associated with the WiDS worldwide non-profit organization.

WiDS worldwide holds an annual conference at Stanford University and an estimated 150+ locations worldwide. This conference provides an opportunity for folks in the Munich community to learn about and celebrate the accomplishments of women applying data science in a variety of domains.

All genders are invited to attend WiDS regional events, which features outstanding women doing outstanding work.

https://www.widsmunich.de/