Bild

Lehrstuhl für Data Privacy and Security

Uni Leipzig | Informatik | ScaDS.AI
Bild
Aktuelles Profil Lehre Abschlussarbeiten TeamEnglish

Aktuelles

 

Wir suchen Unterstützung für unser Team!

Sie interessieren sich für Themen des Datenschutzes und der IT-Sicherheit im Bereich Datenanalyse, maschinelles Lernen, Big Data und Cloud-Architekturen? Sie möchten gern Cyber-Angriffen durch KI erkennen, automatische Verfahren zur Suche nach Schwachstellen und Risiken entwickeln, oder die (De-)Anonymisierbarkeit von großen Datenbeständen testen? Sie suchen ein spannendes Thema für eine Bachelor- oder Masterarbeit, oder haben Interesse an einer Tätigkeit als studentische Hilfskraft oder als wissenschaftlicher Mitarbeiter mit dem Ziel einer Promotion? Dann sprechen Sie uns bitte an!

Wir bieten Arbeit in einem interdisziplinären Team, ein inspirierendes Umfeld mit modernen, toll ausgestatteten Arbeitsplätzen in Löhrs Carree im Zentrum von Leipzig, ideale Bedingungen für Experimente mit ML- und KI-Technologie im ScaDS.AI Living Lab, sowie attraktive und flexible Arbeitsbedingungen.

Profil des Lehrstuhls

 

Ecole polytechnique, Creative Commons Attribution-ShareAlike 2.0 Generic

Beim Datenschutz geht es darum, einen Ausgleich zwischen dem Grundrecht auf Privatheit und immer umfangreicheren Sammlungen persönlicher Daten zu schaffen. Das Ziel der Informations- und Cybersicherheit besteht darin, Daten, Dienste oder IT-Systeme mit technischen und organisatorischen Maßnahmen vor Cyber-Angriffen und anderen Bedrohungen zu schützen.

Lösungen zur Datenanalyse, technische und organisatorische Schutzmaßnahmen, gesellschaftliche Bedürfnisse sowie wirtschaftliche Erfordernisse befinden sich dabei in einer komplexen Wechselbeziehung. Ein aktuelles Beispiel sind Internet-of-Things-Anwendungen, bei denen Geräte Sensordaten in die Cloud senden. Die Cloud verwaltet diese mit Big-Data-Managment-Verfahren. Die Sensordaten werden dann mittels Machine Learning bzw. KI ausgewertet, und steuern Smart City- oder Smart Home-Komponenten. Das Anliegen dieses Lehrstuhls besteht darin, in solchen Szenarien ein sinnvolles Datenschutz- und Sicherheitsniveau zu erreichen. Dazu wird in Lehre und Forschung die gesamte Spannweite von Analyseverfahren über Schutzmaßnahmen bis hin zu Compliance-Frameworks abgedeckt. Das heißt, es geht um den Einsatz von Machine Learning-Techniken zum Anlernen von Firewallregeln oder Intrusion Detection Systemen, sowie zur De-Anonymisierung von Sensordaten. Es geht darum, inwiefern sich Machine Learning-Algorithmen einsetzen lassen, wenn Daten in anonymisierter Form, in verringerter Auflösung oder in der Cloud verteilt gespeichert vorliegen. Es geht ebenfalls um Workflow Privacy Patterns, die technische oder organisatorische Maßnahmen zum Datenschutz als Templates für Geschäftsprozesse bereitstellen. Auf der Compliance-Ebene lässt sich untersuchen, welche Ansätze das Sicherheitsrisiko für den Betreiber (IT-Sicherheit) bzw. das Risiko eines Grundrechtseingriffs (Datenschutz) mindern können, und ob sie mit anderen Maßnahmen konfligieren.

So finden Sie uns

Lehrangebot

 

Sommersemester 2022

Datenschutz kompakt von Anonymisierung bis Zweckbindung: Das Modul besteht aus einer Vorlesung (2 SWS) und einer Übung (1 SWS). Das Modul "Datenschutz von Anonymisierung bis Zweckbindung" enthält zusätzlich noch ein Seminar (2 SWS). Alle Lehrmaterialien finden Sie im zugehörigen Moodle-Kurs.

Verschlüsseltes Datenmanagement auf privaten Daten: Das Modul besteht aus einer Vorlesung (2 SWS) und einem Seminar (1 SWS). Alle Lehrmaterialien finden Sie im zugehörigen Moodle-Kurs.

Wintersemester 2022/23

Das Lehrangebot für das Winteresemester steht noch nicht fest. Geplant sind ein Modul im Bereich der Cyber- und IT-Sicherheit, sowie ein Modul zum privaten Machine Learning mit den Themenschwerpunkten Data Mining und KI.

Bachelor- und Master-Arbeiten

 

Im folgenden sind Beispiele für Bachelor- und Masterarbeiten aufgeführt, die sich aus unserem Forschungsprofil ergeben. Wenn Sie Interesse an solchen oder ähnlichen Themen haben, schreiben Sie uns bitte an.

Anonymisierung von Trainingsdaten für KI/ML

Mit Machine Learning werden Vergangenheitsdaten dafür genutzt, Data Mining-Modelle oder Neuronale Netze anzulernen, die dann neue, unbekannte Daten sinnvoll klassifizieren oder bestimmte Eigenschaften vorhersagen sollen. Schon unter normalen Bedingungen ist es eine Herausforderung, die Qualität des Machine Learnings für neue Daten zu bewerten. Mit anonymisierten oder verrauschten Daten ist dies nochmal schwieriger.
Bei diesem Thema soll für einen Machine Learning-Anwendungsfall analysiert werden, welchen Einfluss Privacy-Enhancing Technologien auf die Qualität des gelernten Modells haben.

Machine Learning für Smart Home Firewalls

In Smart Homes werden von Nutzern ohne Kenntnisse im Bereich der Cybersicherheit komplexe, vernetzte IT-Geräte betrieben, denen man mögliche Sicherheitsprobleme nicht ansieht. So verbreitet sich das Mirai-Botnetz und seine vielen Ableger seit 2016 über unsichere IoT-Geräte, unbemerkt von deren Besitzern. Häufig wurden dabei Sicherheitslücken ausgenutzt, die eigentlich sehr einfach zu beheben sind, wie vergebene Standardpasswörter oder niemals geupdatede Softwarepakete mit altbekannten Schwachstellen.
Bei diesem Thema sollen Machine Learning-Verfahren entwickelt werden, die bei Nutzern ohne tiefe IT-Kenntnisse die Sicherheit einer komplexen Smart Home-Installation verbessern.

Risikoanalyse für IoT-Geräte

Internet of Things (IoT)-Geräte finden sich mittlerweile in fast überall im Alltag, von Autos über smarte Fernseher bis hin zu Waschmaschinen oder Zahnbürsten. Dadurch entstehen viele neue Risiken, von der Angreifbarkeit über Internet über fehlende Funktionsupdates der Firmware bis hin zum Ausfall des Geräts daheim bei Konkurs eines Cloud-Anbieters im Ausland.
Das Ziel dieses Themas besteht darin, für eine bestimmte Gerätekategorie einen vollständigen Katalog von allen IoT-spezifischen Risiken zu erstellen, die über die Lebensdauer des Geräts auftreten können.

Qualität von Spezifikationen

Sicherheitsprobleme entstehen oft durch unpräzise Spezifikationen oder Sicherheitstandards. Allein das BSI-Grundschutz-Kompendium umfasst jedoch schon 900 Seiten. Mit diesem Thema sollen Machine Learning-Verfahren aus dem Bereich der natürlichsprachigen Textanalyse dazu eingesetzt werden, Compliance-Dokumente wie Datenschutzerklärungen, sicherheitskritische RFC-Standards und ähnliches zu bewerten.
Es sollen Machine Learning-Verfahren entwickelt und evaluiert werden, die potentiell ungeeignet formulierte Spezifikationen im Korpus eines großen Compliance-Regelwerks finden können.

Team

 

Prof. Erik Buchmann
Lehrstuhlinhaber

Profil und Kontakt
ScaDS.AI
Raum D 03.10, Löhrs Carre
Humboldtstraße 25
04105 Leipzig
Claudia Götz
Sekretärin

Kontakt
ScaDS.AI
Raum D 03.12, Löhrs Carre
Humboldtstraße 25
04105 Leipzig
Prof. Dr.-Ing. habil. Erik Buchmann: Mailkontakt, ScaDS.AI, Raum D 03.10, Löhrs Carre, Humboldtstraße 25, 04105 Leipzig