Evaluierung des „Secure-Aggregation“-Aspekts in privatsphären-bewahrendem „Federated Machine Learning“

erschienen in #Allgemein, IT-Sicherheit vom 22.01.2024

In diesem Bericht betrachten wir das Konzept von föderiertem maschinellem Lernen („Federated Machine Learning“ / FL), und vor allem dessen Herausforderungen in Bezug auf die Privatsphäre der teilnehmenden Nutzer-Daten. Im Speziellen die privatsphären-bewahrende Variante von FL (= PFL) mittels sicherer Aggregation („Secure Aggregation“ / SAgg). Diese Analyse zielt darauf ab, weitere ML-Anwendungsfälle in föderierten Szenarien zu ermöglichen.

PFL – mit SAgg – ermöglicht das private Lernen eines ML-Modells in föderierten Szenarien (viele dezentralisierte/verteilte Nutzer/Geräte; wie Smartphone-Apps). Ein Server/Dienstanbieter/etc. lernt nur von einer Gruppe von Nutzern, während die Aktualisierung des ML-Modells eines einzelnen Nutzers privat bleibt. Eine der vielversprechendsten SAgg-Techniken ist die Verwendung neuartiger datenschutzfreundlicher kryptografischer Bausteine, insbesondere auf der Grundlage von „Secure Multi-Party Computation“ (MPC).

Google stellte 2017 das quasi-erste praktisch relevante PFL-SAgg-Protokoll auf Basis von MPC vor: SecAgg. Daraufhin folgten einige Folgearbeiten. Drei dieser Folgearbeiten sehen wir uns näher an: SecAgg+, FastSecAgg und LightSecAgg. Die verschiedenen Protokolle bieten unterschiedliche Trade-Offs in Bezug auf Berechnungs- und Kommunikations-Komplexität. Abschließend wird eine Conclusio der betrachtenden MPC-basierten PFL- SAgg-Protokolle gezogen und potentielle Folgearbeiten aufgezeigt.

Downloads

Datei Beschreibung Dateigröße
pdf PFL-SecAgg 4 MB