Dezentrale Personalisierung
Vereinbarkeit von Personalisierung und Datenschutz auf Endgeräten.
Überblick
Der Anspruch an eine Hyperpersonalisierung, mit der jede:r Nutzer:in ein annähernd individuelles Nutzungserlebnis hat, stößt in der Praxis noch an Grenzen. Einerseits haben insbesondere Nutzer:innen im europäischen Markt durch die Cookie-Praxis ein erhöhtes Privatsphärenverständnis. Andererseits ist die Zusammenführung von Nutzer:innendaten äußerst aufwendig.
In diesem Kontext findet ein Paradigmenwechsel zur dezentralisierten Personalisierung statt: Algorithmen und Datenmodelle, die lokal auf dem Gerät der Nutzer:in mit deren Daten optimiert werden, anstatt mit entfernten Servern zu kommunizieren und somit zu einem schnelleren und vor allem datenschutzkonformen Nutzungserlebnis führen sollen.
Ca. 50 % der Befragten geben an, dass sie frustriert sind, wenn Marken-Interaktionen nicht personalisiert sind.
IBM, 2025Bis 2030 wird mit einem jährlichen Wachstum von on-device AI um ca. 30 % gerechnet.
Grandreviewresearch.com, 2025Trend-Herkünfte
Signale, die wir sehen
Datenschutz mit föderaler Struktur
Das Hamburger Startup Flower Labs entwickelt einen föderalen Ansatz zum Training von Daten-Modellen, die nicht zentral feinjustiert werden, sondern auf den Geräten der Nutzer:innen selbst. Anschließend gelangen nur die Modelle, nicht aber die Nutzer:innendaten auf einen zentralen Server, und werden zu einem globalen Modell zusammengeführt.
Lokale KI auf dem privaten Endgerät
Die Generierungs-Qualität von lokalen, Open Source Small Language Models steigt kontinuierlich. LiquidAI ist ein Startup, das mit genau dieser Art von LLM verspricht, KI-Interaktionen direkt auf dem Endgerät und mit geringerem Energieverbrauch zu ermöglichen.
Datenschutzkonforme Kontext-Erkennung
Das in Wien gegründete Startup ContextSDK bietet Entwickler:innen eine Bibliothek an, um Nutzungskontexte bei App-Verwendung zu erkennen. Damit können optimierte Angebote on-device und datenschutzkonform ausgespielt werden.
Was heißt das für uns?
Handlungsfelder
für die ARD
- Wie können wir Algorithmen und algorithmische Entscheidungen für Nutzer:innen transparent und nachvollziehbar gestalten?
- Welche Nebeneffekte haben Algorithmen, die sich auf den Geräten selbst optimieren?
- Welche Formen der Personalisierung werden so ermöglicht, welche behindert?
- Wie gestaltet man sozial und ökologisch nachhaltige algorithmische Systeme?