David Ferrucci formulierte das Bonmot "Aufgaben, die Watson löst, setzen beim Menschen Intelligenz voraus". Einschränkung: Watson reichen Algorithmen.
von Jan-Bernd Meyer (Computerwoche)
Im Prinzip ist Watson das digital gewordene Landei: einfach gestrickt und mit simplen Methoden arbeitend. Sebastian Welter aus dem deutschen Watson-Team würde solch eine Aussage zwar nie unterschreiben. Aber seine Erklärung, wie der Jeopardy-Hero vorgeht, mutet dann doch etwas desillusionierend an: "Watson arbeitet im Prinzip auf zwei Arten: Er frisst zum einen Text. Zum anderen arbeitet er auf Annotatoren und mit Algorithmen, die Texte in einen Zusammenhang stellen." Das kann auch eine Landpomeranze.
Watson kann das allerdings extrem schnell. Und er kann noch ein paar Kunststückchen mehr.
Am Beispiel einer medizinischen Recherche lässt sich die Funktionsweise des Systems erklären. Das Gesundheitswesen eignet sich für die Arbeit Watsons deshalb momentan besonders gut, weil in der Medizin bereits ein sehr umfangreiches taxonomisches Werk vorhanden ist - wichtig für die Art, wie Watson momentan arbeitet. Deshalb konzentriert sich IBM zurzeit besonders auf dieses Terrain.
Ist das aussagekräftig für Krebs?
Man kann Watson also beispielsweise folgende Frage stellen: "Ist dieses Symptom aussagekräftig für Krebs?" Er würde aufgrund dieser Frage alle ihm zur Verfügung stehenden Texte durchforsten. Findet er einen Begriff, der mit der Fragestellung in Verbindung zu stehen scheint, kann er hier einen Zusammenhang festhalten. Watson zerlegt allerdings die Frage auch lexikalisch. So ist er in der Lage, Begriffe miteinander in Beziehung zu setzen. Das kann, sagt Welter, "sehr flach auf Textebene" geschehen. Oder man arbeitet mit Taxonomien, also Klassifikationen - was eben in der Medizin sinnvoll ist, "weil hier ein umfangreiches taxonomisches Werk vorliegt", so Welter.
Das Besondere an Watson, was ihn auch von herkömmlichen Entscheidungsfindungs- oder BI-Systemen unterscheidet, ist, dass er schon im Zuge der Beantwortung einer Frage Vergleiche anstellt darüber, wie gut ein bestimmter Algorithmus sich dafür eignet. Stellte man Watson etwa die Frage nach einer deutschen Bundeskanzlerin, würde er bereits während des Antwortprozesses vergleichen, ob der Algorithmus, der Nachrichtendatenbanken gefleddert hat, statistisch besser abgeschnitten hat als der, der Personen mit geschichtlichen Ereignissen vergleicht.
Lernen im Vorbeigehen
Hat Letzterer besser gepunktet, gewichtet Watson ihn höher. Diese Automatismen werden über Machine-Learning-Verfahren realisiert. Und das ist nicht trivial. Denn je nach der befragten Domäne - also je nach Fachgebiet (Medizin, Jura, Wetterprognose etc.) - müssen die Automatismen jeweils unterschiedlich angewendet werden. Hierzu gehört immens viel Fachwissen, um die jeweiligen Scoring-Modelle umschreiben zu können.
Keine Ahnung, wovon er spricht
So faszinierend es ist zu erleben, welche kniffligen Fragen Watson löst, konstatiert Welter doch ganz nüchtern: "Watson kann eine Frage nicht verstehen. Er wird nie kapieren, was für uns Menschen hinter der Frage steckt. Aber er kann sie trotzdem beantworten." Er beantwortet sie auf vielen algorithmischen Wegen. Indem er Daten zerlegt und vergleicht: "Er weiß nie, was es ist, was er beantwortet. Aber er kann es beantworten."
Statt Intelligenz ein Framework
Ein Ansatz bei der Arbeit mit Watson ist die Sentiment-Analyse: Hierbei werden Texte nach Eindrücken wie "gut" und "schlecht" durchleuchtet. Als Signalwörter sind sie leicht zu finden. Es ist auch relativ simpel, den Abstand solcher Wörter zu einer bestimmten Produktbezeichnung zu ermitteln - die Sentiment-Analyse von Texten ist also eine relativ einfache Methode. Solcherlei semantische Suchalgorithmen offerieren auch andere Anbieter. Wolfram Alpha ist ein Beispiel. Sempria Search ein weiteres.
Nicht schnell genug
Das Problem von Echtzeitanalysen, die Entscheidungshilfen blitzschnell bereitzustellen versprechen - implizit ist das ja das Versprechen der Watson-Technik -, ist allerdings: Sie sind momentan noch nicht schnell genug. Verschiedene Realtime-Analytics-Ansätze, die nicht immer miteinander zu vergleichen sind, versuchen sich an diesem Problem. Dazu gehören Yahoo mit seinem S4-Projekt. Accenture arbeitet mit Appistry an einer Software namens "Cloud Map Reduce". Und Datastax bietet "Brisk".
Um Big Data in Echtzeit nicht nur zu verwalten, sondern vor allem zu analysieren, bediente sich IBM im Falle von Watson einer Reihe von Open-Source-Techniken, die schon lange bekannt sind. Hierzu zählt das ursprünglich von IBM entwickelte und jetzt von Apache weiter gepflegte "Hadoop"-Framework, das auf den Einsatz in parallelisierten Umgebungen spezialisiert ist. Hadoop ist die Basis für die Software "InfoSphere BigInsights and Streams", die unstrukturierte Daten wie Text, Audio und Video analysiert.
Wichtig für Watson ist ferner die Unstructured Information Management Architecture (UIMA) von Apache. UIMA dient der natürlichsprachlichen Bearbeitung und Inhaltsanalyse. Das UIMA-Framework nutzt Suchmaschinen wie Apaches "Lucene" oder "Indri" sowie "Jaql", um nur einige zu nennen. Alle verfügen über unterschiedliche Algorithmen, die für bestimmte Fragestellungen optimiert sind.
Anders als Google
Was Watsons Frage-Antwort-Verhalten von dem einer Google-Suchmaschine unterscheidet, ist die Softwarearchitektur "DeepQ&A", die Natural-Language-Processing-Techniken verwendet. Watson muss nämlich die eine richtige Antwort geben und nicht Vorschläge für mögliche Treffer machen. DeepQ&A untersucht dabei zunächst Interpretationsoptionen der Frage. Hieraus entwickelt das System viele plausible Antworten und Hypothesen, sammelt Indizien für die Wahrscheinlichkeit jeder dieser Vermutungen und wägt sie gegeneinander ab. Für diese Arbeit nutzt Watson Hunderte unterschiedlicher Algorithmen.
Intelligente Computer
Intelligenz - lateinisch "intellegere" - bedeutet "verstehen" und im wörtlichen Sinn "wählen zwischen". Letzteres kommt der Tätigkeit eines Watson-Computers durchaus nahe. Eine eindeutige und von Psychologen gemeinhin geteilte Definition von Intelligenz gibt es allerdings nicht.Hans Peter Moravec, Doktor der Philosophie, Wissenschaftler für Robotik an der US-Eliteuniversität Carnegie Mellon und Verfasser vieler Schriften zur künstlichen Intelligenz, schrieb in seinem Buch "Computer übernehmen die Macht" (1998), Maschinen würden die Nachkommen der Menschen sein. Momentan seien sie erst so intelligent wie Insekten, doch der Mensch werde ihr Potenzial noch erkennen. Sie würden die Kinder sein, "die der Mensch mit seinen Händen und seinem Geist gebaut hat."
Der umstrittene Zukunftsforscher Raymond Kurzweil geht davon aus, dass ein Computer 2029 den Turing-Test besteht. Bei diesem Gesprächspartner könnte der Mensch nicht mehr unterscheiden, ob jener ein Mensch oder eine Maschine ist.
David Ferrucci, auch als Vater von Watson bezeichnet, sieht zwei Ausrichtungen künstlicher Intelligenz: zum einen die analytische Bewältigung riesiger Datenmengen, zum anderen die Nachbildung des menschlichen Gehirns. An Letzterem arbeitet ein europäisches Forscherteam des "Human Brain Projects". Der Zukunftsforscher Lars Thomsen glaubt, dass ein System mit den hierfür nötigen 800 Milliarden Schaltkreisen bis etwa 2030 realisiert sein wird. Allerdings ist es dann immer noch "nur" eine Nachbildung des menschlichen Gehirns. (jm)
Am Ende dieser komplexen Analyse wartet das Landei Watson dann im Gegensatz zu Google und anderen Konkurrenten mit einer einzigen Antwort auf: der einen richtigen Antwort!
(Dieser Beitrag wurde von Computerwoche, einer Schwesterpublikation von ChannelPartner, übernommen / rb)