Wählen Sie Ihre Nachrichten​

Datenkraken im Wohnzimmer
Sprachassistenten leiten Informationen an Unternehmen wie Google und Amazon weiter.

Datenkraken im Wohnzimmer

Foto: Shutterstock
Sprachassistenten leiten Informationen an Unternehmen wie Google und Amazon weiter.
Panorama 5 Min. 11.01.2019

Datenkraken im Wohnzimmer

In naher Zukunft könnten Sprachassistenten unseren Alltag weitgehend regeln. Eine neue, lokale Art der Datenverarbeitung soll dafür sorgen, dass die Privatsphäre dabei besser geschützt wird.

(dpa) - Alles ist verbunden: die Kaffeemaschine mit dem Lichtschalter, der Heizung, dem Türschloss – und all das mit dem Internet. Im Haus von morgen genügt ein Sprachbefehl der Bewohner, um das Badewasser einzulassen, eine Geste, um den Fernseher zu bedienen. Wann sie das tun, was sie anschauen, welche Wünsche sie äußern und Befehle sie geben – all das sind wertvolle Informationen für Konzerne wie Amazon und Google. Diese verwerten die Daten und verdienen damit Milliarden. Mit ihren Sprachassistenten Alexa und Co. kommen sie den Menschen dabei so nah wie nie.

Es erscheint daher kaum verwunderlich, dass rund die Hälfte der Sprachassistenten, die bereits heute in den Haushalten stehen, von diesen beiden Unternehmen stammen. Dem Technologiemarkt-Analysten Canalys zufolge soll die Gesamtzahl solcher Geräte weltweit von derzeit rund 100 Millionen auf mehr als 300 Millionen bis zum Jahr 2022 zunehmen. Nahezu drei Viertel von ihnen wird mit Amazons oder Googles Technik ausgestattet sein, schätzen die Branchenexperten.

Datenschützern bereiten diese Zahlen Sorgen. Denn sobald die Alltagsassistenten per Befehl (etwa „Alexa“ oder „Ok Google“) aktiviert werden, übertragen sie ungefilterte Aufnahmen inklusive Hintergrundgeräuschen in ihre jeweilige Cloud – zentralisierte, oft weit entfernte Serverstrukturen mit riesigen Speicherkapazitäten. Was dort mit den Daten passiert, bekommen die Nutzer nicht mit.

„Unglücklicher Fall“

„Niemand möchte, dass alle Dinge, die privat passieren, eins zu eins irgendwo hin übertragen und gespeichert werden“, warnt Thomas Bendig, Forschungskoordinator am Fraunhofer-Verbund für Informations- und Kommunikationstechnologie in Berlin. Es sei notwendig, dass solche Informationen beim Nutzer blieben.

In der Cloud würden die Daten etwa auch genutzt, um die maschinellen Lern-Algorithmen zu verbessern, „damit Alexa noch besser verstehen und reagieren kann“, teilt Amazon auf Anfrage mit. Und: „Wir erlauben unseren Kunden, der Datenverwertung für Trainingszwecke in den Alexa-Einstellungen zu widersprechen.“ An Dritte würden keine Sprachdaten weitergegeben. Im Dezember wurde durch einen Bericht des Magazins „c't“ jedoch eine Panne aufgedeckt: In auf Anfrage zugesandten Dateien fand ein Kunde ihm völlig fremde Aufzeichnungen, der Konzern sprach von einem „unglücklichen Fall“ infolge „eines menschlichen Fehlers“.

Es gibt längst Möglichkeiten, das Material der Nutzer auch in den eigenen vier Wänden zu belassen. Eine Methode heißt „Edge Computing“ – Rechenleistung am Rande (Edge) der Cloud. Die Daten werden dezentral nah am Nutzer gesammelt und verarbeitet. „Das kann zum Beispiel der ganz normale Internetrouter übernehmen, der im Haus steht“, erklärt Andreas Seitz, wissenschaftlicher Mitarbeiter am Lehrstuhl für angewandte Softwaretechnik der TU München – auch wenn handelsübliche Router bislang noch nicht dazu in der Lage seien.

Möglich sei aber auch, dass solche Prozesse direkt auf der Hardware ablaufen, auf der die Sprachassistenten installiert sind. Eine Firma, die diesen Weg geht, ist das Start-up Snips mit Büros in Paris und New York, das Sprachassistenz-Systeme für Geschäftskunden herstellt, die diese in ihre Geräte einbauen können. Die Privatsphäre der Nutzer habe dabei oberste Priorität, betonen die Verantwortlichen.

Selbstständige Geräte

„Es fühlt sich einfach falsch an, dass ein Konzern Zugriff auf ein Mikrofon hat, das in der eigenen Wohnung steht“, meint Snips-Mitgründer Rand Hindi. Die Speicher- und Rechenleistung, die zum maschinellen Verständnis der Sprachbefehle notwendig ist, liegt bei Snips deshalb nicht auf weit entfernten Serverfarmen, sondern auf den Geräten selbst, auf die die Geschäftskunden die Spracherkennung des Start-ups aufspielen. Stimme und Hintergrundgeräusche bleiben so an Ort und Stelle.

„Es gibt eine ganze Reihe von Unternehmen und Forschungsprojekten, die solche Ansätze verfolgen“, so Bendig. Denn nicht nur für den Heimeinsatz ist Datenverarbeitung jenseits der Cloud attraktiv. Auch die Industrie ist längst aufmerksam geworden.

Neben dem Schutz von Informationen spielt für sie Geschwindigkeit eine Rolle. Bei intelligenten Maschinen müssten Rechenprozesse oftmals in Echtzeit ablaufen, sagt etwa Wolfgang Furtner, verantwortlich für Edge Computing beim Münchner Halbleiter-Hersteller Infineon. „Die Bandbreite und Reaktionszeit der Cloud ist auf Dauer aber einfach begrenzt, wenn jedes Gerät in der Industrie seine Daten dort verarbeiten lässt.“

Deutlich schneller gehe es, wenn sie an Ort und Stelle verarbeitet und an die Maschinen zurückgespielt würden – vor allem, wenn die für die Cloud nötige Internetverbindung nicht schnell genug oder lückenhaft ist. Über Edge-Geräte ließen sich Daten zudem bündeln und anonymisieren, bevor sie in die Cloud gehen. Infineon liefert dafür die Hardware.

Wird Edge Computing die Cloud also bald ersetzen? Nein, sagt Seitz von der TU-München. „Edge Computing ist eine Erweiterung der Cloud, beide Welten sind miteinander verbunden.“ Gerade bei künstlicher Intelligenz oder maschinellem Lernen benötige man riesige Rechenpower für die Verarbeitung enormer Datenmengen. „Diese Dinge in einem Edge durchzuführen und das zu lernen, ist unrealistisch“, sagt Seitz. dpa


Lesen Sie mehr zu diesem Thema

Schärfer, bunter, smarter
Auf der Internationalen Funkausstellung 2018 in Berlin geht es vor allem um TV-Bildqualität und die Kommunikation der Geräte.