Standard-Datenschutzmodell für alle Anforderungen der DSGVO

SDM-Logo

Das Standard-Datenschutzmodell (SDM) bietet geeignete Mechanismen, um die rechtlichen Anforderungen der Datenschutz-Grundverordnung (DS-GVO) in technische und organisatorische Maßnahmen zu überführen. Zu diesem Zweck erfasst das SDM zunächst die rechtlichen Anforderungen der DS-GVO und ordnet sie anschließend den Gewährleistungszielen Datenminimierung, Verfügbarkeit, Integrität, Vertraulichkeit, Transparenz, Nichtverkettung und Intervenierbarkeit zu. Das SDM überführt damit die rechtlichen Anforderungen der DS-GVO über die Gewährleistungsziele in von der Verordnung geforderten technischen und organisatorischen Maßnahmen, die im Referenzmaßnahmen-Katalog des SDM detailliert beschrieben werden. Es unterstützt somit die Transformation abstrakter rechtlicher Anforderungen in konkrete technische und organisatorische Maßnahmen.

Version 2.0a wurde von der 98. Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder vom 5. bis 7. November 2019 in Trier beschlossen.

[via heise.de]

EDDI19 im finnischen Tampere: Programm, Registrierung, Diversity

EDDI-Logo

Die elfte European DDI User Conference (EDDI19) findet unter dem Motto „DDI – The Basis of Managing the Data Life Cycle“ statt.

Das vorläufige Programm ist online und die Registrierung ist eröffnet.

Es gibt auch wieder Diversity-Stipendien.

How to make statistical analysis code reproducible and reusable (Webinar)

Das Helmholtz Open Science Koordinationsbüro setzt seine Reihe mit Webinaren fort.

Hier die Infos zum zweiundfünfzigsten Webinar:

  • Dr. Elmar Spiegel (HMGU):
  • „How to make statistical analysis code reproducible and reusable“
  • Donerstag, 10.10.19, 15 bis 15.30 Uhr oder
    Freitag, 25.10.19, 11 bis 11.30 Uhr (Wiederholung).

Im Anschluss an die Webpräsentation steht der Referent im Livechat zur Verfügung. Eine Anmeldung für das Webinar ist nicht erforderlich, Es gibt weitere Informationen zur Teilnahme.

Via: Mailingliste [RDA-DE]

Professur für Datenmanagement

Die TU Chemnitz schreibt derzeit eine W3-Professur für Datenmanagement aus.

Eine möglichst hohe Übereinstimmung mit den Themen

  • Datenbanktechnologien, Datenverwaltungssysteme
  • Integration, Verwaltung und Verarbeitung sehr großer Datenmengen

und mindestens einer der folgenden Schwerpunkte sind gewünscht:

  •  Wissensrepräsentation und –management
  • Cyber Physical Systems (CPS)
  • Linked Data
  • Open Data
  • Digitale Daten Ökosysteme
  • Data Analytics/Big Data
  • Data Mining
  • Datenbanken/Informationssysteme
  • Data Analytics
  • Data Governance

Datenschutz am LIfBi – Ergebnisse eines Besuchs des BfDI

Briefkopf des Beratungs- und Kontrollberichts

Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) war Anfang 2018 zu einem Informations-, Beratungs- und Kontrollbesuchs beim Leibniz-Institut für Bildungsverläufe in Bamberg (LIfBi). Die Einschätzungen aus der Sicht des Datenschutzes zur Speicherung von Befragtenadressen, Einverständniserklärungen, Einwilligung von Minderjährigen, Anonymisierung oder Datenweitergabe innerhalb des Konsortiums sind sicherlich auch in vielen anderen Instituten von großem Interesse.

Zum Glück hat sich der BfDI im Rahmen einer Transparenzinitiative entschlossen, alle Antworten auf Anfragen nach Informationsfreiheitsgesetz gleich vollständig zu veröffentlichen (»Access for one – access for all«). Deswegen ist der Bericht vom August 2018 nun als PDF verfügbar.

Was machen wir (eigentlich) mit Git?

Das Git-Logo

Wem Metadaten nicht fremd sind, ist vielleicht für einen Metadiskurs empfänglich. Im Beitrag „Version Control: Zur softwarebasierten Koordination von Ko‑laboration“ rekonstruiert Marcus Burkhardt die Entwicklung von zentralisierten zu verteilten Versionskontrollsystemen. Dabei beschreibt er auch, wie bestimmte Arten der Zusammenarbeit direkt von der verwendeten Software abhängen oder erst entwickelt werden müssen, um eine Software auf eine bestimmte Art und Weise zu nutzen.

Wer es etwas alltagsorientierter mag, findet übrigens bei heise.de eine zweiteilige Reihe „Die vielfältigen Fähigkeiten von Git“ (Teil 1, Teil 2), die gleichermaßen interessant ist.

DFG-Kodex „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“

Neuer DFG-Kodex

Die DFG hat den Kodex „Leitlinien zur Sicherung guter wissenschaftlicher Praxis“ veröffentlicht, der am 1. August 2019 in Kraft tritt und von allen Hochschulen und außeruniversitären Forschungseinrichtungen bis zum 31.07.2021 rechtsverbindlich umzusetzen ist, um auch zukünftig Fördermittel der DFG zu erhalten.

Für das Forschungsdatenmanagement relevante Leitlinien sind insbesondere:

  • Leitlinie 7: Phasenübergreifende Qualitätssicherung
  • Leitlinie 10: Rechtliche und ethische Rahmenbedingungen, Nutzungsrechte
  • Leitlinie 11: Methoden und Standards
  • Leitlinie 12: Dokumentation
  • Leitlinie 13: Herstellung von öffentlichem Zugang zu Forschungsergebnissen
  • Leitlinie 17: Archivierung

Anonym vs. pseudonym

Screenshot netzpolitik.org

Das Blog netzpolitik.org berichtet unter dem Titel „Weitere Studie belegt Lüge ‚anonymer‘ Daten“ über eine Studie in der wissenschaftlichen Fachzeitschrift Nature, die Probleme bei der Anonymisierung beschreibt. Durch Streichung der Namen erreiche man keine Anonymität, sondern in lediglich Pseudonymität.