Amazons "Alexa" gehackt und vorgeführt
Zwei chinesische Hacker führten auf der Hacker-Konferenz Defcon 2018 vor, dass sie Amazons „Alexa“ zu einer realen Abhörwanze machen können. Das Verfahren ist zwar nicht ganz so einfach, kann aber großen Schaden anrichten. Die beiden Hacker löteten einen eigenen Chip in ein Alexa-Echo-Gerät ein, mit dem sie Alexa-Geräte, die sich im gleichen WLAN befanden, manipulieren konnten. Im Privathaushalt wäre das schwierig, in halb-öffentlichen WLANs wie Hotels oder Firmen ließe sich so ein vorbereites Angriffs-Alexa schon eher einschmuggeln. Mit unvorhersehbaren Folgen. (Falls Sie sich gerade beim Lesen gewundert haben: Wir sprechen mit Absicht von DAS [Gerät namens] Alexa, um die Wanze nicht zu personalisieren.) (Quelle: Stern.de)
Eine andere Datenpanne dürfte Amazon besonders peinlich sein: Ein deutscher Kunde forderte bei Amazon nach Datenschutzgrundverordnung die über ihn gespeicherten Daten an und erhielt eine zip-Datei. Obwohl dieser Kunde noch nie Alexa genutzt hatte, stellte ihm der Konzern daraufhin 1700 Sprachnachrichten eines anderen Amazon-Echo-Nutzers zur Verfügung. Und es kam noch schlimmer: Mit Hilfe dieser Sprach-Schnipsel aus Schlafzimmer, Bad, Küche usw. gelang es Journalisten der Zeitschrift c’t, die Person, der diese Daten gehörten, ausfindig zu machen. Sie war von Amazon noch nicht über das Datenleck informiert worden. Amazon kommentierte diese Panne in der internen Daten-Buchhaltung so: „Dieser unglückliche Fall war die Folge eines menschlichen Fehlers und ein isolierter Einzelfall.“ (Quelle: Heise.de)
Dabei ist die Technik hinter der Spracherkennung noch nicht so weit, wie die Konzerne gerne hätten. Im Sommer 2019 kam heraus, dass die vielen Sprachnachrichten, die Alexa Echo oder anderen Sprachassistenten aufnehmen, von Menschen abgehört werden, um die Algorithmen zu trainieren. Diese Menschen schreiben dann nieder, was aufgenommen wurde – und berichteten in diversen Presseartikeln von sexualisierten Aufnahmen („Dirty Talk“), sie berichten von Kindern, die den Geräten wie einem besten Freund ihre Geheimnisse anvertrauen, von Drogendeals und Liebesbotschaften. Den meisten, die diese Arbeit machen, ist die Intimität unangenehm und sie empfinden die Dinge, die sie hören, als Belastung.
Übrigens: Auch beim Google Assistant hören gelegentlich Menschen mit - zur Qualitätsverbesserung. Ja, es ist ein unangenehmes Gefühl, sich das vorzustellen. Aber: Es wäre ein kapitaler Fehler, anzunehmen, dass diese lauschenden Geräte weniger gefährlich würden, wenn die Spracherkennung perfekt funktionieren würde und „nur“ die Maschine dahinter lauscht, aufzeichnet und auswertet. (Quelle: Tagesspiegel.de und Süddeutsche Zeitung)