Zum Hauptinhalt springen
Alle KollektionenFunktionen
Gesichtsunschärfe in OpenSpace
Gesichtsunschärfe in OpenSpace
Diese Woche aktualisiert

Überblick

Die Verpixelung von Gesichtszügen ist eine Funktion, deren Aktivierung Sie beim OpenSpace-Support beantragen können. Die Funktion wurde zum Schutz der privaten Identität von Personen entwickelt, die in Ihren 360°-Videos oder 360°-Fotos erscheinen. Wenn diese Funktion aktiviert ist, werden die Gesichter in Ihren Aufnahmen nach dem Hochladen und Veröffentlichen in Ihrem Projekt verpixelt.

Wir arbeiten mit Machine-Learning-Algorithmen, um Gesichter zu verpixeln. Die Genauigkeit der Ergebnisse hängt von einer Reihe von Faktoren ab, die im Folgenden beschrieben werden.

Verpixelung von Gesichtern im Hinblick auf die DSGVO

OpenSpace nimmt den Datenschutz und die Privatsphäre von Menschen sehr ernst und verpflichtet sich zur Einhaltung der Datenschutzbestimmungen. In diesem Abschnitt erfahren Sie mehr über die Funktion zur Verpixelung von Gesichtern in OpenSpace und die Einhaltung der Allgemeinen Datenschutz-Grundverordnung (DSGVO) in Abstimmung mit unseren Kunden. Die DSGVO legt EU-weit einheitliche Datenschutzregeln fest.

Details zur Verpixelung von Gesichtern und der DSGVO:

  • Gemeinsame Verantwortung: Für die Einhaltung der Grundsätze der DSGVO sind der Datenverantwortliche (der Kunde) und OpenSpace (der Datenverarbeiter) gemeinsam verantwortlich.

  • De-Identifizierung oder Verpixelung von Gesichtern bei OpenSpace: Um die Erfassung personenbezogener Daten (PII) zu beschränken und zu diesem Zweck unsere Funktion zum Verpixeln von Gesichtern zu aktivieren, können sich Kunden an den OpenSpace-Support wenden. Sobald diese Funktion aktiviert ist, erkennt sie Gesichter in allen künftigen Aufnahmen. Wenn das System ein Gesicht als solches identifizieren kann, werden das Gesicht und der Rest des Körpers im Bild unscharf dargestellt. Auf diese Weise machen wir die Personen auf den Bildern für einen durchschnittlichen Betrachter unkenntlich. Obwohl dieses Verfahren mit Hilfe hochentwickelter Machine-Learning-Algorithmen, die die Ähnlichkeit einer generischen Person erkennen, sehr akkurat ist, können damit keine bestimmten Gesichter oder Personen identifiziert werden, und die Falsch-Negativ-Rate ist nicht null. Die De-Identifizierung zielt darauf ab, Angriffsflächen zu reduzieren und nicht darauf alle betroffenen Daten aus dem System zu entfernen.

  • Möglichkeit falsch-negativer Ergebnisse: Wenn ein Gesicht nicht verpixelt dargestellt wird, bedeutet dies in der Regel, dass die Gesichtserkennung ein Gesicht aufgrund von bestimmten Umständen der Aufnahme (etwa Verzerrungen, Verpixelungen, chirurgische Masken oder andere Überlagerungen auf dem Gesicht) nicht als solches erkennen kann. Dies ist ein normales Ergebnis der Machine-Learning-Algorithmen, die wir zur Erkennung von Personen verwenden. Wir stellen unsere Modelle so ein, dass die Anzahl falsch negativer und falsch positiver Ergebnisse gesenkt wird, um unseren Kunden einen erstklassigen Service zu bieten. Dabei kann es jedoch vorkommen, dass einige Ähnlichkeiten, obwohl sie statistisch gesehen nicht erkennbar sind, für Betrachter, die die Person oder die Umgebung kennen, erkennbar sind.

  • Möglichkeit falsch positiver Ergebnisse: Wenn Teile des Bildes unscharf sind, auf denen keine Gesichter zu sehen sind, bedeutet dies in der Regel, dass die Gesichtserkennung fälschlicherweise ein Gesicht erkannt hat, wo keines war. Dies ist ein normales Ergebnis der Machine-Learning-Algorithmen, die wir zur Erkennung von Personen verwenden. Auch hier stellen wir unsere Modelle so ein, dass sowohl die Anzahl der falsch-positiven als auch die der falsch-negativen Ergebnisse reduziert wird, um unseren Kunden einen erstklassigen Service zu bieten. Dabei können jedoch einige Objekte oder Aspekte der aufgenommenen Bilder zu Unrecht unscharf sein. In diesen Fällen empfehlen wir Ihnen, in Ihrer Aufnahme ein Einzelbild vor- oder zurückzuspulen, um zu sehen, ob benachbarte Bilder, die nur eine halbe Sekunde voneinander entfernt sind, nicht dasselbe falsch-positive Ergebnis aufweisen. In den meisten Fällen gibt es einen Frame in Ihrer Aufnahme, der dies nicht tut.

  • Verantwortung des Kunden und bewährte Praktiken: Der Kunde ist dafür verantwortlich, die Einwilligung der betroffenen Personen einzuholen. Der Kunde kann zum Beispiel einen Hinweis aushängen, dass eine 360°-Fotodokumentation stattfinden wird und dass er sich bemüht, Gesichter zu verpixeln. Außerdem kann der Kunde bei der Aufnahme von Bildern Maßnahmen ergreifen, um die Erfassung von Daten der betroffenen Personen zu verhindern oder einzuschränken, z. B. während der arbeitsfreien Zeit aufnehmen oder fotografieren, wenn sich weniger Menschen vor Ort aufhalten.

Wir hoffen, dass diese Informationen Ihre Fragen beantworten können und Ihre Bedenken hinsichtlich vermeintlicher Fehler in unserer Funktion zur Verpixelung von Gesichtern ausräumen.

Häufig gestellte Fragen

Gibt es Bereiche in OpenSpace, in denen die Verpixelung von Gesichtern nicht verfügbar ist?

  • Weder Vor-Ort-Notizen noch Lidar-Scans verfügen über die Funktion, Gesichter zu verpixeln.

Ähnlicher Artikel

Klicken Sie hier, um die OpenSpace-Datenschutzrichtlinie zu lesen.

Wenn Sie zusätzliche Fragen haben, wenden Sie sich bitte an das OpenSpace-Support-Team unter support@openspace.ai.

Hat dies deine Frage beantwortet?