
Beim SLO-Workshop in Mannheim hat sich eine Gruppe gebildet, die sich zunächst einen Überblick über die Praxis der Programmiertestung in Surveys verschaffen will. Daraus kann dann ein gemeinsames Verständnis darüber entwickeln, was unter Programmiertestung verstanden werden soll und welche Empfehlungen gegeben werden können.
In einem ersten Schritt soll jede interessierte Studie bzw. jedes interessierte Institut beschreiben, wie die Programmiertestung abläuft. Hierzu soll auch Material zur Verfügung gestellt werden, das in dem Zusammenhang genutzt bzw. erstellt wird (z.B. Checklisten für Hiwis, Filter-Diagramme/Bäume, Fehlerlogs). Auch die Testung von Preloads, kann thematisiert werden. Idealerweise soll das Vorgehen auf etwa einer Textseite beschrieben werden, was mit weiterem Material illustriert werden kann. Auch Literaturhinweise sind willkommen. Die Beschreibungen sollen bis 16. März bei Knut Wenzig eingehen.
Dieses Material soll dann gemeinsam gesichtet und diskutiert werden. Im weiteren Verlauf könnte über die Rolle von Metadaten in diesem Prozess diskutiert werden und am Ende könnte eine Veröffentlichung der Arbeitsergebnisse etwa in der Zeitschrift Bausteine Forschungsdatenmanagement stehen.
Interesse an der Bearbeitung dieses Themas wurde von Kolleg*innen aus LIfBi, dem DJI, TREE, IAB, SHARE, GESIS und DIW Berlin gezeigt.
Wenn Du schon Chat-GPT zur Erstellung dieses Bildes verwendest, kannst Du denn bitte wenigstens eine Version, die nicht ganz sausage-festig ist? Das erzeugt auch einen sehr falschen Eindruck von der Veranstaltung, möchte ich sagen
Eigentlich wollte ich ja ein Bild zum Thema Programmiertestung. Aber das war es, was ich bekommen habe. Und dann waren die Möglichkeiten eines kostenlosen Accounts schon beschränkt. Mein Versuch war ja, die (Selbst-)Kritik in der Bildunterschrift anzubringen.