10 Tips For Clean Code

  1. You’re responsible for code quality.
  2. Use meaningful names.
  3. Write code that expresses intent.
  4. Code should speak for itself. Less comments = less maintenance.
  5. Leave the code better than you found it.
  6. Single-responsibility code. i.e function does 1 thing well. Less arguments = better function. classes: most methods use most of the class’ properties.
  7. Tests (TDD).
  8. Work on big picture skeleton, then fill in the details later (interface first, implementation later).
  9. Independent components that can be used in different places.
  10. Master your craft.

Link zum Video.

European Commission: Expert group on Turning FAIR data into reality

The European Commission has established an Expert group on Turning FAIR data into reality (E03464) which will run until Spring 2018. This Group is pleased to announce a public consultation to invite suggests and contributions on implementing the FAIR data principles.

The call for contributions is framed in terms of the five proposed report chapters, namely:

  • Concepts – why FAIR?
  • Research data culture
  • Making FAIR data real
  • Measuring change
  • Facilitating change

A description of the planned coverage of each section is given, together with some questions to guide contributions.

A GitHub repository has been established to enable the community to contribute suggestions and resources in the open. Please see the guidelines and examples on how to contribute.

We will also host two open community sessions to allow people to contribute ideas to the FAIR data expert group in real-time and in a moderated forum to allow discussion with the group. These will take place on Monday 3rd July from 14:00-17:00 CEST and Wednesday 26th July from 10:00-13:00 CEST. Further details on how to join will be circulated nearer the time.

The consultation is open between 12 June 2017 and 31 July 2017. Early input is encouraged to allow time for follow-up discussion.

(via [forschungsdaten])

Was sind Datenmangementpläne?

Das Online-Tutorial „Was sind Datenmanagementpläne?“ ist ab sofort auf der Webseite der Forschungsdatenmanagement-Initiative der Humboldt-Universität zu Berlin bzw. über doi:10.18450/dataman/91 frei verfügbar. Das Tutorial informiert rund um das Thema Datenmanagementpläne: Es definiert den Aufbau und Inhalt eines Datenmanagementplans, beschreibt dessen Notwendigkeit und Sinn und gibt einen Einblick über Anforderungen und Formalitäten.


Das Online-Tutorial wurde von der Forschungsdatenmanagement-Initiative der Humboldt-Universität zu Berlin erarbeitet. Es steht unter einer CC-BY Lizenz.

(via: [forschungsdaten])

Arbeiten am FDZ-DZHW

Das FDZ-DZHW sucht zum 1. September 2017

eine(n) wissenschaftliche(n) Mitarbeiter(in) für das Projekt „Maßnahmen zur Effizienzsteigerung des FDZ-DZHW in den Bereichen Datenaufnahme, Nutzeranfragen und Kommunikation“.

Aufgabenbeschreibung

  • Weiterentwicklung des FDZ-eigenen Metadatenmanagementsystem mit dem Fokus auf eine effiziente Datenaufnahme innerhalb des DZHW
  • Optimierung der Prozesse zur Aufnahme externer Daten
  • Erarbeitung von Vorlagen für Skalenhandbücher
  • Öffentlichkeitsarbeit

Weitere Infomationen finden sich hier

EDDI2017 in Lausanne: Beiträge bis 4. September einreichen

EDDI-Logo

Am 5. und 6. Dezember 2017 findet in Lausanne mit der EDDI17 die 9th Annual European DDI User Conference statt. Der Call for Papers wurde gerade veröffentlicht. Er gibt eine große Freiheit bei der Themenwahl und hat sich im Vergleich zum Vorjahr kaum geändert.

DFG: Evaluation mit Kennzahlen sind Gefahr für Qualität in der Wissenschaft

Die Überschrift ist sicher etwas zugespitzt, aber in ihrer Stellungnahme zur „Replizierbarkeit von Forschungsergebnissen“ (Pressemitteilung, PDF) schreibt die DFG: „Neben individuellem Fehlverhalten gibt es für das Qualitätsproblem von Forschung allerdings auch strukturelle Gründe. Das mittlerweile in der Wissenschaft erreichte Gewicht von quantitativ parametrisierenden Steuerungs-, Bewertungs- und Gratifikationssystemen wirkt sich auf die Forschung als gestiegener (und weiter steigender) Wettbewerbs- und Beschleunigungsdruck aus. Dieser manifestiert sich in Entscheidungen (und zugrunde liegenden Entscheidungskriterien) über Karriereschritte, finanzielle Förderung, Publikationsorte oder institutionelle Strukturentwicklungen. Die notwendige skrupulöse Sorgfalt bei der Vorbereitung, Durchführung, Auswertung, Darstellung und Publikation experimenteller und empirisch-quantitativer Forschung braucht Zeit, Gelegenheit, Mittel und Personal. Sie muss eher gegen diesen Wettbewerbs- und Beschleunigungsdruck durchgesetzt werden, als dass sie von ihm befördert würde.“ (Hervorhebung durch K.W.)

Auch wenn es bestimmt einige Zeit dauert, bis sich diese Erkenntnis in der Förderpraxis der DFG auch durchsetzt, ist die Einsicht an sich durchaus bemerkenswert. Es galt doch lang Zeit eher die Überzeugung, dass Kennzahlensysteme dabei helfen, die Qualität in der Wissenschaft zu verbessern.

(Via RfII Info Ticker)

Neuer Newsletter: RfII Info Ticker

Die Geschäftsstelle des Rates für Informationsinfrastrukturen (RfII) erstellt wöchentlich einen Newsletter mit Nachrichten aus dem akademischen und wissenschaftspolitischen Umfeld des RfII.

Der RfII Info Ticker bietet einen schnellen und informellen Überblick rund um Entwicklungen in der Wissenschaft unter dem Einfluss des digitalen Wandels. Ausgewertet werden Meldungen zu Informationsinfrastrukturen und Forschungsdaten, Bildung und Hochschulen, wissenschafts- und förderpolitisch relevanten Entwicklungen, Veränderungen im Bereich von Bibliotheken und Publikationssystem sowie rechtlichen, technischen, wirtschaftlichen und wissenschaftlichen Entwicklungen durch die digitale Transformation.  Hinweise auf aktuelle Veranstaltungen aus diesem Themenspektrum ergänzen das Informationsangebot.

Anmeldung: https://listserv.gwdg.de/mailman/listinfo/rfii_infoticker.

Workshop „Survey‐Forschung als sozialer Prozess“

TU Berlin, 1./2. Juni 2017

(Anmeldung bis zum 25.05.2017)

Die quantitative Survey‐Forschung zielt auf eine möglichst beobachterunabhängige Beschreibung sozialer Phänomene ab. Gegenüber der qualitativen Sozialforschung beansprucht sie den Vorzug einer durch große Zufallsstichproben und Standardisierung gegebenen Verallgemeinerbarkeit sowie Vergleichbarkeit von Ergebnissen aus verschiedenen Kontexten. Im Unterschied zu prozessproduzierten Massendaten bzw. ‐akten (etwa staatlichen Verwaltungsdaten und Big Data), wird der Vorzug der theoriegeleiteten Datenerhebung und ‐auswahl betont. Seit den Anfängen der sozialwissenschaftlichen Surveyforschung war die Standardisierung des Forschungsprozesses mit dem Streben nach wissenschaftlicher Objektivität verbunden. Noch heute arbeiten die großen internationalen Forschungsinstitute primär auf der Grundlage von standardisierten Befragungen.

In Vergessenheit geriet im Zuge der erfolgreichen Institutionalisierung der Survey‐Forschung jedoch, dass diese selbst als sozialer Prozess verstanden werden kann. Aus organisations‐ und marktsoziologischer Perspektive erscheint Survey‐Forschung – erstens – als ein Markt, in dem Projekte in komplexen, arbeitsteiligen, transorganisationalen Produktionsketten umgesetzt werden. Die soziale Logik der Herstellung von Wissen beschränkt sich dabei nicht auf die kommerzielle Markt‐ und Meinungsforschung, sondern liegt auch nationalen wie kulturvergleichenden Studien wie ISSP, EVS, ESS, dem World Value Survey usw. zugrunde. In die Wissensproduktion durch die empirische Sozialforschung sind – zweitens – verschiedene soziale Felder (Bourdieu), Konventionen (Ökonomie der Konventionen) und Wissensordnungen (Wissenssoziologie) involviert, die ihren je spezifischen Bewertungsmaßstäben Geltung verschaffen und dadurch konstitutiv für die Prozesse und Produkte der empirischen Sozialforschung sind. Obschon die Legitimation fragebogenbasierter empirischer Sozialforschung sich auf Objektivitäts‐ und Neutralitätspostulaten gründet, wirken ihre Befunde – drittens – auf mannigfaltige Weise in die Gesellschaft zurück. Dieser Zusammenhang von Statistik und Herrschaft ist in die Gründungsgeschichte der Sozialforschung eingeschrieben, wie es Desrosières in seinen historischen Arbeiten oder Boltanski und Thévenot am Beispiel von Berufsklassifikationen aufzuzeigen vermochten.

Dieser Workshop setzt sich zum Ziel, die komplexen Produktionsgefüge fragebogenbasierter Sozialforschung, ihren performativen Charakter und ihre gesellschaftlichen Implikationen kritisch zu reflektieren. Es gilt dabei, Instrumente, Prozesse und Resultate genauer zu betrachten und die für gewöhnlich vernachlässigten Anwendungsbedingungen und Produktionsprinzipien der Survey‐Forschung als dem vermeintlich wissenschaftlich‐neutralen Königsweg soziologischer Methodik offenzulegen. Der Workshop richtet so insgesamt den Fokus auf die Survey‐Forschung als sozialen Prozess. Aus wirtschafts‐ und organisationssoziologischer Perspektive soll etwa thematisiert werden, welche Konventionen die synchrone und diachrone Koordination der Survey‐Produktionskette strukturieren. Aus wissen(schaft)ssoziologischer Perspektive soll die Frage adressiert werden, wie sich der soziale Prozess der Survey‐Forschung in Verfahren, Datenqualität, Messergebnisse und Interpretationen niederschlägt und so hintergründig an der Wissensproduktion konstitutiv beteiligt ist. In herrschaftssoziologischer Absicht soll dann die Frage aufgeworfen werden, wie die empirische Sozialforschung an der Herstellung und Aufrechterhaltung der sozialen Wirklichkeit und der Gesellschaft mitwirkt. Aus methodologischer Perspektive stellt sich schließlich die Frage, inwiefern dieser soziale Prozess der Survey‐Forschung im Alltagshandeln der Forschenden selbst reflektiert werden kann, um den Forschungsprozess zu verbessern und dessen Grenzen aufzuzeigen.

Organisation

Caroline Näther, Andreas Schmitz, Raphael Vogel, Alice Barth und Nina Baur

Kontakt

survey@mes.tu‐berlin.de oder sekretariat@mes.tu‐berlin.de

Anmeldung

Zwecks Planung wird um Voranmeldung bis zum 25.05.2017 gebeten.

Programm

Donnerstag, 1. Juni 2017, 13–18.30 Uhr

13.10–14 Uhr

Willkommen, Registrierung und Snacks

14–14.45 Uhr

Begrüßung und Einleitung: Interpretativität und Survey‐Forschung (Nina Baur)

I. Wissen, Praktiken und Konventionen der Survey‐Forschung

15–15.45 Uhr

Beurteilung der Qualität von Survey‐Daten (Jörg Blasius, Universität Bonn)

16–16.45 Uhr

Konstruktäquivalenz und Inhaltsvalidität als besondere Herausforderung in der kulturvergleichenden Forschung (Wolfgang Aschauer, Universität Salzburg)

17–17.45 Uhr

Funktionale Äquivalenz in der interkulturellen Survey‐Forschung –
am Beispiel der Methodenäquivalenz (Martin Weichbold, Universität Salzburg)

18–18.30 Uhr

Abschlussdiskussion des Tag 1 (Moderation: Caroline Näther)

ca. 19 oder 19.30 Uhr

Abendessen im Mar y Sol (Tapas und Spanisches Essen, Savignyplatz 5, 10623 Berlin)

Freitag, 2. Juni 2017, 9–18 Uhr

II. Organisation von Survey‐Forschung

9.30–10 Uhr

Kaffee

10–10.45 Uhr

Die Entscheidung zur Befragungsteilnahme aus der Perspektive soziologischer
Handlungstheorie(n) (Michael Weinhardt, Universität Bielefeld)

11–11.45 Uhr

Surveys als Bestandteil einer Nationalen Forschungsdaten‐Infrastruktur (Stefan Liebig, Universität Bielefeld)

12–12.45 Uhr

Das Hinterland der schweizerischen Survey‐Landschaft. Auf Qualitätskonventionen gestützte Übersetzungs‐ und Koordinationsprozesse entlang der Quality Convention Chain von Surveys (Caroline Näther, Universität Luzern)

12.45–14.30 Uhr

Mittagspause im Manjurani (Indisches Restaurant, Knesebeckstraße 4, 10623 Berlin)

14.30–15.15 Uhr

Die Einbettung von Surveys in Survey‐Welten (Raphael Vogel, Universität Luzern)

III. Macht und Kultur in der Survey‐Forschung

15.30–16.15 Uhr

Prozesse und Mechanismen von Vertrauens‐ und Korruptionskulturen (Peter Graeff, Universität Kiel)

16.30–17.15 Uhr

Meinungsumfrage als ideologische Konsumption – eine feldtheoretische Perspektive (Alice Barth und Andreas Schmitz, Universität Bonn)

17.30 – 18.30 Uhr

Abschlussdiskussion (Moderation: Nina Baur)

19 Uhr

Gemeinsames Abendessen im Restaurantschiff Capt’n Schillow
(Straße des 17. Juni 113)

Ort

Berlin – Institut für Soziologie – Fraunhoferstraße 33‐36 ‐ Raum: FH 919 – 10587 Berlin

Anfahrtsbeschreibung

http://www.soz.tu‐berlin.de/menue/kontakt/ sowie http://fahrinfo.bvg.de

Empfohlene Hotels in der Nähe des Veranstaltungsorts

  • Hotel Otto in der Knesebeckstraße (Entfernung: 750 m, 10 min zu Fuß)
  • Hotel Indigo Berlin Ku’damm in der Hardenbergstraße (Entfernung: 1 km, 12 Min zu Fuß/Buslinie 245 oder M45: Einstieg: Jebensstr., Ausstieg: Marchstraße, ca. 15 Min)
  • Novum Style Hotel Berlin‐Centrum in der Franklinstraße (Entfernung: 850 m, 11 Min zu Fuß/Buslinie 245: Einstieg: Franklinstr., Ausstieg: Marchstraße, ca. 15 Min)
  • Hotel Tiergarten Berlin in Alt‐Moabit (Entfernung: 2,2 km/Buslinie 245: Einsttieg: Turmstraße, Ausstieg: Marchstraße, ca. 20 Min)
  • Motel One Tiergarten (Entfernung: ca. 3 km, U2: Einstieg: Wittenbergplatz, Ausstieg: Ernst‐Reuter‐Platz, ca. 10 Min)
  • Motel One Ku’Damm (Entfernung: 1,5 km, Buslinie 245 oder M45: Einstieg: Jebensstr., Ausstieg: Marchstr., ca. 15 Min)
  • Motel One Hauptbahnhof (Entfernung: ca. 4 km, Buslinie 245: Einstieg: Lesser‐Ury‐Weg, Ausstieg: Marchstraße)

Data-Science-Podcasts

Ich will an dieser Stelle die Gelegenheit nutzen und ein paar Podcasts empfehlen, die sich dem allgemein im Bereich Data Science bewegen. Die Liste ist eine Auswahl und erhebt keinen Anspruch auf Vollständigkeit. Wenn ihr noch weitere Tipps habt, schreibt diese doch in die Kommentare 🙂

Hier die Liste mit den Podcasts (Aktualisiert im Juni 2021):

Die Fakten Dicke! Der GESIS-Podcast

Mit der ganzen GESIS-Power im Hintergrund widmet sich dieser Podcast dem Thema Forschungsdaten an den unterschiedlichen Stellen des Data Lifecycle: Erhebung, Management, Analyse/Forschungsergebnisse, Archivierung.  Eine absolute Hörempfehlung für alle, die an wissenschaftlichen Fakten und Forschungsdaten interessiert sind.

CorrelTalk – The CorrelAid Podcast

Der CorrelTalk ist der offiziell Podcast des CorrelAid-Netzwerks, das ehrenamtliche Data Scientists miteinander zusammenbringt. In dem Podcast werden sowohl einzelne Projekte vorgestellt, als auch allgemeine Themen aus dem Bereich Data Science besprochen. Der Podcast eignet sich also auch sehr, um sich zu einem möglichen Engagement bei CorrelAid zu informieren.

Data Skeptic
Der Podcast rund um das Thema Data Science erscheint in zwei Formaten: In den Mini-Episoden spricht der Host Kyle mit seiner Frau ganz basal über unterschiedliche statistische Verfahren und Konzepte. Dies ist manchmal vielleicht etwas sehr spielerisch, ich finde es aber insbesondere bei mir unbekannten Methoden sehr gut, um einen ersten Einblick in das Thema zu bekommen.
In den längeren Episoden werden Themen meist ausführlicher behandelt. Hierfür sind häufig sehr interessante Gesprächspartner zu Gast. Neben dem Podcast lohnt sich auch ein Blick in den zugehörigen Blog.

Linear Digressions
Vom Konzept her recht ähnlich zu Data Skeptic. Auch dieser Podcast versucht Data-Science-Themen auf einfache Weise zu beleuchten, geht dabei jedoch nicht so grundsätzliche Themen an wie die Mini-Episoden von Data Skeptic.

Dig Deep
Ein sehr guter deutschsprachiger Podcast, in dem „Neues aus der digitalen Welt” behandelt wird, wie der recht generische Untertitel verspricht. Neben interessanten Beiträgen zum Thema Data Science werden daher auch gesellschaftspolitische Fragestellungen behandelt. Die beiden Hosts Frauke Kreuter und Christof Horn bringen dabei sehr gekonnt ihre unterschiedlichen Perspektiven aus Wissenschaft und freier Wirtschaft ein.

Partially Derivative
Eine Folge dieses ganz hervorragenden Podcasts hatte Arne vor kurzer Zeit bereits gepostet. Der Podcast lebt vor allem von den sehr guten Gästen, die aus ihren jeweiligen Spezialgebieten berichten.

O’Reilly Data Show
Dieser Podcast widmet sich ebenfalls vielen interessanten Fragstellungen. So dreht sich eine Folge beispielsweise um die Frage, warum Emotionen für AI bedeutsam sind. Eine weitere Folge thematisiert die Nutzung agiler Organisationsformen in der Data Science.

Data Stories
Dies ist wahrscheinlich DER Podcast für Datenvisualisierung.

Modellansatz
Dieser mathematisch orientierte Podcast vom KIT behandelt ganz unterschiedliche mathematische Fragestellungen, die auch immer wieder den Bereich der Data Science streifen. So wird beispielsweise die Vorhersage von Gelegenheitsverbrechen mittels Modellen zur Erdbebevorhersage behandelt.

Five Thirty Eight Podcasts
Auf dem bekannten Blog von Nate Silver werden drei Podcasts veröffentlicht, die sich mit inhaltlichen Themen befassen und diese vor dem Hintergrund verschiedener Datenquellen beleuchten. Im Politics Podcasts geht es um aktuelle politische Themen (zumeist aus der amerikanischen Innenpolitik). In Hot Takedown werden Themen aus den US-Sports betrachtet. In What’s the Point  geht es eher um allgemeine Fragestellungen bezüglich des Einflusses von Daten auf gesellschaftliche Prozesse.

R-Podcast
Diesen Podcast habe ich erst kürzlich entdeckt und hatte noch keine Gelegenheit ihn ausführlicher zu hören. Er hört sich aber dafür schon sehr interessant an.

EXPLORELABS – Stata Ado zur Unterstützung in der Erschließung von Labels

Vor kurzem habe ich ein neues Ado für Stata beim Statistical Software Component Archive (SSC) veröffentlicht, dass den Prozess der Erschließung von Wertelabels in Datensätzen unterstützt. Es heißt EXPLORELABS und kann wie gewohnt mit dem Befehl “ssc install explorelabs” in der Kommandozeile von Stata heruntergeladen werden.

EXPLORELABS ermöglicht dem Nutzer die Wertelabel einer beliebigen Anzahl von Variablen aus dem Datensatz nach bestimmten Mustern zu betrachten. So können entweder alle Werte, nur negative oder nur eine bestimmte Anzahl an letzten/höchsten Werte ausgegeben werden. Zwei Möglichkeiten des Outputs stehen zur Ansicht der gefundenen Wertelabels zur Verfügung: EXPLORELABS – Stata Ado zur Unterstützung in der Erschließung von Labels weiterlesen