Differential Privacy

© AdobeStock

Infolge der digitalen Transformation nimmt der Einsatz von Methoden der künstlichen Intelligenz im Kontext der Produktion stetig zu. Das übergreifende Ziel ist eine datengetriebene Produktion, in der Maschinen und Anlagen vollvernetzt Informationen austauschen können. Die Speicherungsmenge der Daten steigt dadurch kontinuierlich an. Stellt ein Unternehmen nun die Daten einem Dienstleister zum Training von neuronalen Netzen zur Verfügung oder kollaboriert mit anderen Unternehmen zum gemeinsamen Training eines Modells, können sensible Informationen offengelegt werden.

Die verbreitete Annahme, die Anonymisierung der Daten kann ausreichend sein, um die Privatsphäre zu gewährleisten, wurde bereits anhand mehrerer öffentlicher Beispiele widerlegt. Wenn Sie sich im Rahmen Ihrer Problemstellung also folgende Fragen stellen, bietet unser Leistungsangebot die korrekte Lösung für Sie:

  • Verfügen Sie in Ihrem Unternehmen bereits über Datensätze, welche sensitive Informationen beinhalten?
  • Streben Sie eine kollaborative Kooperation mit externen Entwicklungspartnern an?
  • Sollen in diesem Rahmen Ihre Datensätze mit sensitiven Informationen und Inhalten für Entwicklungszwecke geteilt werden?
  • Vermuten Sie Risiken beim Teilen Ihrer Daten mit Entwicklungspartnern (z.B. Offenlegung unternehmensspezifischer Details)?

In diesem Zusammenhang liefert das Forschungsgebiet Differential Privacy verschiedene Methoden, um individuelle, sensible Informationen zu schützen. Allgemein geschieht dies durch ein geeignetes Verrauschen der Daten, wodurch die Datensicherheit individueller Informationen gewahrt wird. Die Kernaussage der gesamten Datenbasis bleibt jedoch identisch. Die zu verwendende Methode hängt vom Datentyp, der Art des Trainings und der Teilnehmerkonstellation ab. Konkret ist es beispielsweise nach Anwendung von Differential Privacy Methoden nicht möglich, in einer Umgebung von mehreren IoT Geräten die Aussage zu treffen, ob ein konkretes Gerät zu dem Datensatz beigetragen hat. Die Gesamtaussage des Datensatzes zum Beispiel bezüglich des Stromverbrauchs von Maschinen oder der Qualität eines Produktes bleibt jedoch erhalten.

Durch die Methoden von Differential Privacy wird es Unternehmen folglich ermöglicht, Machine Learning Plattformen zu nutzen und mit anderen Unternehmen sicher zu kooperieren, unter Berücksichtigung der Datensicherheit.

 

Unser Leistungsangebot

  • Analyse der bestehenden Datenstrukturen hinsichtlich der Verwendung geeigneter Methoden von Differential Privacy
  • Untersuchung der Einflüsse verschiedener Methoden auf die Ergebnisgüte hinsichtlich kundenspezifischer Anforderungen
  • Umsetzung und Integration der ausgewählten Methode in bestehende Algorithmen

 

Ihr Nutzen

  • Sichere Nutzung von Datenräumen und kundenspezifischen Daten ohne Verletzung der Privatsphäre
  • Steigerung der Kundenakzeptanz bezüglich der Bereitstellung individueller Daten
  • Erkenntnisgewinn durch unternehmensübergreifenden Austausch von Datensätzen unter Berücksichtigung von Aspekten der Privatsphäre