Ohne wirklich darüber zu informieren, hat Google im Oktober 2024 ein Android-Sicherheitsupdate aufgeschaltet, welches Nacktbilder als solche identifizieren kann. Das sogenannte SafetyCore-Update wurde wohl automatisch auf den Handys aller Android-User installiert, die Android 9 oder eine neuere Version verwenden.
Im Infotext der Entwickler heißt es, beim Update handle es sich um "eine Android-Systemkomponente, die eine datenschutzfreundliche, geräteinterne Schutzinfrastruktur für Apps" bereitstelle, wie "ZDNet" und "Futurezone" berichten. Der kryptische Beschrieb ließ viele ratlos zurück.
Ohne SafetyCore direkt zu erwähnen, erklärte Google später, der Dienst könne Nacktbilder, die einem zugesendet werden, erkennen und unkenntlich machen. Für die unzensierte Darstellung der Inhalte ist dann die explizite Zustimmung des Users notwendig. Ebenfalls warnt Google den Android-Nutzer, wenn dieser im Begriff ist, freizügige Inhalte zu teilen, und erwähnt potenzielle Risiken.
Die Software enthält KI, die sensible Inhalte erkennen, analysieren und filtern kann – und dies, obwohl Google betonte, die Funktion habe keinen Zugriff auf Bilder. Auch fänden alle Prozesse von SafetyCore auf dem Smartphone statt und es würden keine Daten an externe Server weitergeleitet.
Unklar bleibt, ob der Dienst mit anderen Google-Servern kommuniziert oder ob es zu einer Meldung kommt, wenn ein User sensible Inhalte aufnimmt. Möglicherweise erkennt die KI sogar, was auf Bildern erkennbar ist und welche Personen zu sehen sind.
Für viel Kritik sorgte, dass das fragwürdige Update automatisch installiert wurde und die User nicht zuerst ihre Zustimmung geben mussten. Das Ziel von Google, einen besseren Umgang mit Nacktbildern zu fördern, mag löblich sein, doch stellt das Update in dieser Form einen starken Eingriff in die Privatsphäre der Nutzer dar.