Im dem aktuellsten Beitrag der Datenkolumne des Weser Kuriers stellen unser Mitarbeiter Sven Venzke-Caprarese und der wissenschaftliche Geschäftsführer des Instituts für Informations-, Gesundheits- und Medizinrecht (IGMR), Dr. Dennis-Kenji Kipker unter der Überschrift Sprachassistenzsysteme – Wer hört mit? fest, dass teilweise noch erheblicher datenschutzrechtlicher Nachbesserungsbedarf bei entsprechenden Angeboten besteht.

Insbesondere weisen sie darauf hin, dass Amazons Sprachassistentin Alexa die empfangenen Sprachdaten nach Aktivierung nicht nur an Amazon übermittelt, sondern die Sprachdaten dort auch gespeichert werden. Zwar können sich Nutzer die gespeicherten Daten anhören und diese manuell löschen. Eine Deaktivierung der Speicherung ist jedoch nicht vorgesehen – bzw. wurde von den Autoren nicht gefunden.

Sofern eine Deaktivierungsmöglichkeit tatsächlich fehlt, liegt an dieser Stelle sehr wahrscheinlich ein Verstoß gegen den Grundsatz des privacy by design und by default (Art. 25 DSGVO) vor. Nutzer können insofern nur hoffen, dass sich Aufsichtsbehörden des Themas annehmen oder Amazon auf Grund von etwaigen Betroffenenanfragen oder Berichterstattungen einlenkt.

Ansonsten bleibt Betroffenen nur die Möglichkeit, die Dienste nicht zu nutzen oder zur digitalen Selbstverteidigung zu greifen und Dienste wie z.B. Jumbo in Betracht zu ziehen. Dieser Dienst wurde von uns zwar nicht näher geprüft, liest sich auf den ersten Blick aber schon ganz gut:

“With Alexa, Amazon is storing all the voice recordings of your requests – and they do not even let you turn off that collection of data. With Jumbo, you can clean all your Alexa voice recording in one tap!”

Schöner (und sicherer sowie wirksamer und nicht zuletzt auch rechtskonform) wäre es jedoch, wenn die entsprechende Deaktivierungsfunktion bereits vom Anbieter zur Verfügung gestellt werden würde.

Seit gestern ist Alexa mit einem weiteren Thema rund um die Spracherkennung in den Medien: Es wurde bekannt, dass Amazon Mitarbeiter Sprachbefehle oder Aufzeichnungen die Alexa als solche einordnet von Nutzern an anhören und abtippen um die Spracherkennung zu verbessern. Darüber hinaus sollen auch Hintergrundgespräche von den Mitarbeitern erfasst und ausgewertet werden. Amazon bestätigte die Aussagen, betonte aber, dass die Mitarbeiter im Rahmen dieses Workflows keinen direkten Zugriff auf Informationen, die die Person oder das Konto identifizieren können, haben würden.

Aus den Verlautbarungen auf Amazons Webseiten konnten Nutzer nicht explizit schließen, dass Mitarbeiter die Gespräche zu hören bekommen. Es heißt bisher lediglich: „Zum Beispiel verwenden wir Ihre Befehle an Alexa, um unsere Systeme zur Spracherkennung und zum Verstehen natürlicher Sprachen zu trainieren.“

Sie können selbst verhindern, dass ihre Aufzeichnungen zur Weiterentwicklung des Dienstes genutzt werden. Dazu öffnen sie ihren  Amazon-Account auf dem PC, wählen=> Mein Konto ==> Meine Inhalte und Geräte

und gehen dann zu ==> Alexa-Datenschutz ==> Legen Sie fest, wie Ihre Daten Alexa verbessern sollen

==> Beim Entwickeln neuer Funktionen mithelfen (ausschalten)

Sollten Sie auch unter „Nachrichten zur Verbesserung der Aufzeichnungen verwenden“ eine Auswahlfunktion angezeigt bekommen, deaktivieren Sie diese auch. In gleicher Weise können Sie die Einstellungen auch über die Alexa App vornehmen.

Doch selbst mit dieser Deaktivierung umgehen sie nicht das Problem der grundsätzlichen Aufzeichnung und Speicherung ihrer Befehle. Amazon speichert trotzdem fleißig mit.