Big Data und fast unbegrenzte Rechenpower in der Cloud
Auf künstliche Intelligenz setzt Google auch bei der Datenanalyse von Google Inbox und Google Photos. Das Mailprogramm gruppiert eingehende Nachrichten automatisch und hebt wichtige Infos hervor, ohne dass man eine Mail erst öffnen muss. Zudem werden die Termin-und Aufgabenverwaltung automatisiert.
Was die Inbox für Mails ist, ist Google Photos für Bilder und Videos. Die Android-und Web-App durchsucht die eigenen Aufnahmen nach Stichwörtern, ohne dass man zuvor Stichworte vergeben muss. Google erkennt also die Inhalte der Bilder automatisch und ordnet ihnen dann Tags zu. Das funktioniert auch für Personen und Gesichter.
Über die Performance aus der Cloud hinaus benötigen die digitalen Helfer weitere Informationen, wenn sie wirklich persönliche Hilfen darstellen sollen. Sonst kann der Nutzer zwar sein Smartphone mit Navigiere mich zum Ort X anweisen, doch inzwischen leisten Google Now und Co. längst mehr: Beispielsweise erinnern sie in Abhängigkeit der Verkehrslage daran, rechtzeitig zum Termin am Ort X aufzubrechen. Damit der Assistent dies eigenständig erkennt, muss er aber Einblick in den Kalender des Nutzers haben und dem eingetragenen Termin einen Ort zuordnen können. Zusammen mit den Verkehrsinfos in Echtzeit wissen Apple und Google dann, wann man tatsächlich aufbrechen muss.
Dieses Beispiel verdeutlicht, dass die digitalen Helfer sowohl auf allgemeine als auch auf persönliche Daten zugreifen müssen. Dazu zählen unter anderem E-Mails, Termine, Kontakte und Adressen, den Such-und Browserverlauf, den Aufenthaltsort und Ähnliches. Im neuen Android 6 geht Google sogar noch einen Schritt weiter: "Now on Tap" heißt die Erweiterung auf alle Apps, die den Inhalt der aktiven Applikation oder Webseite analysiert. Egal, ob man gerade Musik abspielt, das Kinoprogramm liest oder sich per Chat mit Freunden unterhält, Google ermöglicht jeweils kontextspezifische Informationen. Tippt man den Home-Button kurz an und hält ihn anschließend gedrückt, zeigt das Mobilgerät die passenden Einzelheiten. Auch kann man unspezifisch Wann hat das Restaurant geöffnet? fragen, wenn zuvor von einem bestimmten Lokal die Rede war.
Bei den proaktiven Funktionen hinkte Siri bisher hinter Google her, doch mit iOS 9 hat Apple nun aufgeholt. Der neue "Proactive Assistent" koordiniert App-Inhalte, Termine und Orte. So versucht Apple bei einem ankommenden Anruf ohne sichtbare Rufnummer anhand der letzten Chats und Mails den möglichen Anrufer mit einer Einblendung wie "Vielleicht: Hermann Maier" zu identifizieren. Und "Siri Suggestions" schlägt in der neuen Spotlight-Suche Informationen, Apps oder Kontakte vor, die zu Aufenthaltsort, Uhrzeit oder den persönlichen Vorlieben passen könnten. Insgesamt hat Siri gegenüber iOS 8 deutlich zugelegt und arbeitet jetzt viel stärker personalisiert.