Sunday, November 29, 2015

Apple, Google, und der Weg zu einer Know-it-All-Assistent

Betrachtet man die Keynote von Apple Worldwide Developer Conference in dieser Woche, und aus dem Google-E / A-Konferenz vor zwei Wochen, was Sie stand am meisten für mich war die Mühe, dass beide Unternehmen-als auch Microsoft-setzen, um intelligente Systeme, die einfach zu erstellen so viel wie möglich über Sie.


Solche Systeme, wer du bist, wo du bist, und alle Informationen auf dem Bildschirm, in der Regel mit dem Ziel, als "persönlicher Assistent", die Ihren Bedürfnissen erwartet wirkt. Dies ist ein sehr ehrgeiziges Ziel, das eines dieser Unternehmen scheint zu verstehen, kann der nächste große Schritt in der Computerbranche zu sein.

Im Falle von Apple und Google, können andere Angebote auf ihren Keynotes angekündigt mehr Aufmerksamkeit zu bekommen, oder kann mehr sichtbar kurzfristige Auswirkungen haben. Google Fotos bekam eine Menge Aufmerksamkeit; sowohl von Apple und Android Pay Pay scheinen am Rande der immer viel mehr an der Tagesordnung, und die Verbesserungen in Android Wear und WatchOS kann auch einen Überfluss von Anwendungen für Wearables ankündigen. Aber die Bewegung, um klüger, umfassender Gesamtsysteme kann sich als die größte langfristige Auswirkungen haben.

Apple, Google und Microsoft sind alle kommen auf diese aus verschiedenen Blickwinkeln. Aber sie scheinen auf Systemen, die einen mobilen Front-End, die durch Eingabe oder Sprach gesteuert werden können, unterstützt mit einer Reihe von Internet-basierte Dienste und Prozesse, die eine riesige Menge von Daten über Sie enthalten konvergierenden werden und Rückschlüsse auf Basis von dass Daten und auf das, was du tust.

Der Weg zu dieser Konvergenz hat durch eine Reihe von Einführungen in den letzten Jahren gepflastert. Viele haben über persönliche Assistenten, die seit Jahren, und Siri wurde ursprünglich als eigenständige Anwendung durch einen Spin-off von SRI International entwickelt. Im Jahr 2011 führte Apple Siri als "virtuellen Assistenten" mit dem iPhone 4S, meist wirkt als Front-End, um Dinge wie Web-Suche, lokale Wetter, und das Restaurant Blick auf. Im Jahr 2012 stellte Google Google nun als Teil des Android 4.1 Jelly Bean und liefert Informationen zu einer Reihe von "Karten", die Fragen beantwortet. Im Laufe der Zeit wuchs diese zu weiteren Informationen bieten und decken mehrere Domänen.

Zuerst dachte ich, beide waren interessant, aber die Sprachsteuerung schien eher ein "Salontrick" als eine nützliche Anwendung.

Aber in den letzten Jahren haben sich sowohl in einem rasanten Tempo verbessert. Zum Teil gab, die mehr Nutzer beide Unternehmen mehr Daten zu verarbeiten. Dies, kombiniert mit intelligenter Algorithmen und eine Menge Arbeit auf die Server-Verarbeitung, führte zu Systemen, die jetzt viel genauer zu verstehen, was Sie fragen, als sie beim Start waren. Beide sind nun in der Lage, Fragen in mehrere Domänen zu beantworten. Und Google Jetzt können Informationen wie, wo Ihr Haus und Ihr Büro auf Ihrem typischen Standorten schließen.

Microsoft führte Cortana im vergangenen Jahr als Teil des Windows Phone Version 8.1, als die erste wirklich persönliche "Digital Assistant" zu beschreiben, weil es zu verstehen mehr von dem, was du in anderen Anwendungen zusätzlich zu Websuche taten. Es könnte Dinge wie erinnerung zu tun und zu verstehen, die für Sie wichtig ist und wer nicht war, und während es waren nicht so viele Benutzer, es zu scheint in den letzten Jahren verbessert haben. Cortana geht jetzt ein Teil von Windows 10 auf Desktops und Laptops sowie sein.

Dies bringt uns zu den jüngsten Ankündigungen, wo alle drei Anbieter scheinen zu leihen Merkmale von den anderen, und wirklich versuchen, ihre Angebote zu verbessern.

Google Now On Tap

Bei Google I / O ein paar Wochen sprach Google Senior Vice President Sundar Pichai, wie das Unternehmen weiter an der Suche konzentrieren. Aber wenn es in der neuesten Version von Android kam, um Merkmale, wurde, was meine Aufmerksamkeit von neuen Funktionen für den Google Now persönlicher Assistent aufgerufen wird "Now on Tap".

Pichai sprach über Googles Investition in tiefen Lernens und des maschinellen Lernens, sagen, es hat dazu beigetragen, Google reduzieren die Wortfehlerrate in der Spracherkennung von 23 Prozent auf 8 Prozent im vergangenen Jahr.

Google Jetzt hat bereits einige Kontextmerkmale-zum Beispiel weiß, dass es, wo Sie sind, so ist es die Zeit, können schätzen Sie brauchen werden, nach Hause zu kommen, und es kann diese über die verschiedenen "Karten" zeigt sie verwendet, um Informationen oder innerhalb Benachrichtigungen anzuzeigen .

Aber Aparna Chennapragada, Direktor des Google Now, sagte: "Wir haben uns gefragt, wie können wir Sie schnell Antworten auf kurze Fragen, ohne Rahmen, Wie können wir Ihnen helfen, Dinge in so wenigen Schritten wie möglich zu erledigen?" Das Ergebnis, sagte sie, war ein neuer Service für Sie "in dem Moment" zu unterstützen, egal was Sie am Telefon taten. Dies ist nun vom Fass, und sie sagte, es vereint Googles Knowledge Graph-sein Verständnis von mehr als 1 Milliarde Einheiten (wie Baseball-Teams und Tankstellen) -mit Kontext und Verbindungen mit anderen Anwendungen, um Ihnen Informationen proaktiv zu geben.

In der Demonstration zeigte sie, eine Nachricht bekam sie innerhalb einer App darauf hindeutet, ein Restaurant für das Abendessen und bat sie, holen die chemische Reinigung. Drücken und Halten der Home-Taste die Google-Karte Nun brachte und die nun auf Tap-Funktion zog grundlegende Informationen über das Restaurant, einschließlich Links zu Navigationskarten, Yelp und Opentable; sie setzen auch eine Erinnerung an die chemische Reinigung. Tippen auf das Opentable Link öffnete die app, aber eindrucksvoller öffnete sie direkt auf die Seite von diesem Restaurant.

Die Idee ist, dass das Betriebssystem versteht jetzt den Kontext, wo Sie sind und was Sie schon auf den Rest des Gerätes getan haben. Ein weiteres Beispiel ist, dass, wenn Sie Musik hören, können Sie einfach halten Sie die Home-Taste und stellen Sie eine Frage über den Song. Nun wird Google wissen welches Lied gespielt wird, und könnte dann beantworten Fragen über sie.

"Sie können Informationen sofort zu erhalten", sagte Chennapragada. "In all diesen Beispielen, die Artikel, den Sie gerade lesen, die Musik Sie gerade hören, die Nachricht, die Sie Antworten auf-der Schlüssel ist das Verständnis des Zusammenhangs des Augenblicks sind. Hat, dass das Verständnis, in der Lage Sie schnell Antworten zu geben, ist es einmal Now um kurze Fragen, helfen Ihnen, Dinge zu erledigen, wo immer Sie gerade telefonieren. "

Apfel betont Intelligenz

Auf seiner WWDC Keynote am Montag, Apfel erörterte eine Reihe von Veränderungen kommen in iOS 9, führte aber mit dem Konzept der "Intelligenz".

Craig Federighi, Apples Senior Vice President für Software-Engineering, sprach über was Siri eine "proaktive Assistenten", die Dinge wie Sie daran erinnern, um eine bestimmte Aufgabe oder einen bestimmten Link in einem Browser zu einem besonders Zeit oder wenn Sie zu einem bestimmten Ort zu tun, . Zum Beispiel, wenn Sie eine Textnachricht über ein bevorstehendes Ereignis zu empfangen, können Sie Siri zu sagen, "erinnern mich darüber" und es wird verstehen, dass Sie auf das Ereignis beziehen und eine Erinnerung. Er kann Dinge tun, wie automatisch Einladungen hinzuzufügen in einer Textnachricht, um Ihren Kalender.

Es kann die Anwendungen, die Sie neigen dazu, zu einer bestimmten Zeit des Tages zu verwenden denken Sie daran, und präsentieren sie Ihnen in einem einfachen Symbol, und jetzt fügt "beschreibenden Karten", die Sie mehr Informationen über die Ergebnisse einer Suche (die im Konzept ähnlich sah geben zu den Karten in Google Now).

Und es in der Regel gerade scheint, verbessert haben. Federighi, sagte Apple hat eine 40-prozentige Reduktion der Wortfehlerrate im vergangenen Jahr auf 5 Prozent gesehen. Und es ist klüger über den Umgang mit den Dingen im System selbst, nun in der Lage, um in natürlicher Sprache Anfragen wie reagieren "Zeigen Sie mir Fotos von Utah im August letzten Jahres."

Interessanterweise bietet es eine API für die Suche, so dass es Inhalte in Anwendungen finden können. Zum Beispiel sprach er über die Möglichkeit, tief in den Airbnb App zu Verfügung Häuser in einem bestimmten Gebiet zu finden zu verbinden; oder auf der Suche nach Informationen über Rezepte in einer anderen Anwendung.

In einer Demo zeigte er sich eine neue Suche-Bildschirm Sie durch Streichen direkt aus dem Home-Bildschirm zu bekommen, und wie das System selbst macht Vorschläge, die Sie vielleicht kontaktieren, basierend auf Ihre häufigsten Kontakte und zu kommenden Veranstaltungen. Er zeigte, wie es dann "deep link" in spezifische Anwendungen, um Ihnen weitere Informationen zu bringen. Ähnliche Merkmale waren in Siri zur Verfügung.

Eine Sache, die Apple-gestresst war, Privatsphäre, mit Federighi sagen: "Wir konnten die Intelligenz in der gesamten Erfahrung in iOS 9 zu bringen, aber wir tun es in einer Weise, dass Ihre Privatsphäre nicht beeinträchtigt." In dem, was sicherlich klang wie ein Seitenhieb auf Werbung basierendes Modell von Google, sagte er Apple nicht Ihre Fotos, E-Mails, Fotos, oder Cloud-Informationen abzubauen. Er sagte, dass alle Informationen, die auf dem Gerät durchgeführt und bleibt auf dem Gerät unter Ihrer Kontrolle, und wenn das System, um Informationen in die Cloud zu senden, um die Suche zu tun oder suchen Sie nach Verkehrs, tut sie dies anonym, ohne Daten an Dritte weitergegeben. "Sie haben die Kontrolle", sagte er.

Cortana Gehen Cross Platform

Sie können argumentieren, dass Microsoft hatte einen Vorsprung bei der Bereitstellung von vielen der persönlichen Assistenten Features mit seinen Cortana Assistent für Windows Phone. Es war das erste der drei großen Telefonassistenten, zu versuchen, wie ein echter Assistent fungieren, in Bezug auf die Zeitplanung Mahnungen und der tiefer Integration mit einigen der Telefonanwendungen.

Cortana ist Bestandteil von Windows 10 auf dem Desktop und Notebook als gut. Vor kurzem kündigte Microsoft, dass eine Version von Cortana wäre auf iOS und Android-Handys kommen zusammen mit einem "Phone Companion" App, die Ihren PC mit Cortana, so dass Sie Aufgaben auf einem Gerät zu starten und sie auf einem anderen.

Wie Microsofts Joe Belfiore es beschrieb, "Sie können sich daran erinnern, Cortana abholen Milch Sie das nächste Mal im Supermarkt sind, und dann Ihr Telefon wird mit der Erinnerung aufwachen und Buzz. Sie werden in der Lage, einen zu verfolgen Flug mit Cortana sowohl auf dem Telefon und dem PC, und erhalten Sie die Updates auf dem Gerät, die Sie auf, damit Sie nichts verpassen bist. "

Abschluss

In vielerlei Hinsicht, wir hören alle drei Unternehmen zusammen zu bewegen, vor allem in "proaktive" Bemühungen. Google und Apple, sagte ihre Werkzeuge wäre mehr "proaktiv" mit dem Begriff zu beschreiben, wie sie ihre persönlichen Assistenten, um zumindest scheinen, als ob sie in der Lage zu antizipieren, was Sie auf der Suche nach sind es möchten.

Alle drei sind mit Schwerpunkt auf eine bessere Verbindung mit den anderen Anwendungen auf Ihrem System, mit Apple und Google kündigt ein Schwerpunkt "Deep Linking". Genauer gesagt, sie wollen, die Dinge in einer App zu verknüpfen, wie gehen, um den richtigen Bildschirm in Opentable einen Tisch reservieren. Am I / O, Vice President of Engineering für Android Dave Burke zeigte, wie Android M hat jetzt bessere Möglichkeiten für Links auf Links in E-Mail oder Internetseiten an die richtige Stelle in einer Anwendung zu gehen, ohne die aktuelle "Begriffsklärung" -Bildschirm.

Das Ergebnis all dieser ist eine Verwischung der Grenzen zwischen dem Betriebssystem und den Anwendungen, die auf ihm ausgeführt werden, um eine nahtlose Erfahrung und Systeme, die wirklich wissen viel mehr über Sie.

All das sollte sehr nützlich sein. Aber für eine Vielzahl von Gründen, all dies kann gefährlich, wie gut. Es ist nur allzu leicht, die Möglichkeit des Missbrauchs der Daten vorstellen, ob gerade für übereifrige Marketing oder für echte Verletzung der Privatsphäre. Ich bin neugierig, wie jedes der Unternehmen wird diese Adresse. Ich frage mich, ob einer der Gründe, Google hat seinen Dienst als "persönlicher Assistent" ist, weil es klingt ein bisschen abstoßend von einer Firma, deren Hauptgeschäftsmodell um das Sammeln von Daten über die Menschen und benutzen, um bessere Ausrichtung von Werbung ausgerichtet.

Es ist auch einfach, um die Funktionen dieser Systeme überbewerten. Das Konzept eines allwissenden, alles sehende Maschine kann beängstigend sein, aber ich bin nicht besorgt über eines dieser Systeme zu entwickeln "starke AI" im Sinne der Terminator Skynet oder 2001: A Space Odyssey HAL jederzeit im nahe Zukunft. Ein Teilnehmer sagte kürzlich bei einem Panel besuchte ich sagte: "Denken Sie Jarvis, nicht HAL" -talking über die hilfreich bei der Anzug Intelligenz in den Iron Man-Filme getragen wird, im Gegensatz zu der mörderischen Maschine aus dem Jahr 2001. Für die nächsten Jahre, Die Frage wird nicht sein, ob diese Systeme sind zu klug, aber ob sie klug genug, um wirklich nützlich zu sein, oder wir werden uns mit ihnen lediglich als Frontends für Web-Suchen zu finden.

Natürlich ist der Teufel im Detail, und wir werden nicht wirklich wissen, wie gut einem der Systeme arbeiten, bis die neuen Versionen Schiff. Während der Spracherkennung verbessert und erweitert diese um neue Domains verursacht mehr Herausforderungen. Und ich bin mir nicht klar, wie gut ein Job die Systeme in so dass Sie die Dienste, die Sie verwenden wie gegen die säumigen Apple oder Google-eigenen Leistungen möchten holen zu tun.

Aber das Gesamtkonzept ist klar und das Dienstprogramm könnte grandios sein. Wenn es richtig eingesetzt wird, sollten diese Dienste machen unsere Geräte fühlen einfacher zu bedienen, intelligenter und mehr personalisiert. Sie werden Herausforderungen haben und einige Bedenken zu erhöhen, aber meine Vermutung ist, sie werden mehr tun, um zu ändern, wie wir mit unseren Geräten als alles, was seit dem Touchscreen interagieren.

No comments:

Post a Comment