Schlagwort-Archive: cognitive computing

Wie Frau Watson die Computer-Zukunft sieht

laube, dass wir hier auf einem sehr guten Weg sind.“

„Ich glaube, dass wir hier auf einem sehr guten Weg sind.“ (Martina Koederitz)

Wir stehen in der Computerei am Ende einer Ära und kurz vorm Übergang zu einer ganz neuen, nämlich dem Zeitalter lernfähiger Maschinen. Das wird tiefgreifende Folgen für die Art und Weise haben, wie wir mit Daten umgehen und wird unser Verhältnis zum Computer auf eine neue Ebene hieven, keine Frage. Die heute verwendete Von-Neumann-Architektur, die der in Budapest geborene US-Mathematiker John von Neumann bereits 1945 beschrieb und die bis heute Grundlage aller gebräuchlichen Rechnersysteme ist, arbeitet nach dem SISD-Prinzip (Single Instruction, Single Data), können also immer nur eine Information nach der anderen abarbeiten. Das führt zum so genannten „Von-Neumann-Flaschenhals“, einer Engstelle, die vom deutschstämmigen Informatiker und Erfinder der Programmiersprache Fortran, John W. Backus, beschrieben wurde.

Solche Computer können immer nur eine Sache auf einmal machen (im Englischen auch als „word-at-a-time thinking“ bezeichnet), erzwingt also einen expliziten Sequentialismus.  Da bei ihnen Datenspeicher und Verarbeitungschip getrennt sind, können sie nur vom Programmierer vorgegebene Arbeitsschritte ausführen, nach dem Motto: „Wenn x, dann y“. Solche Computer sind erstens zu langsam und zweitens nicht intelligent genug, um mit den riesigen Informationsmengen zurecht zu kommen, die im Zusammenhang mit Big Data anfallen. Weiterlesen

Die Intelligenz der Zukunft: Wie Computer für uns denken lernen

Elementar, mein lieber Watson!

Elementar, mein lieber Watson!

 Der Mensch ist das intelligenteste Wesen der Welt, aber seine Intelligenz ist das Ergebnis eines Jahrtausende dauernden Evolutionsprozesses, und der ist noch längst nicht abgeschlossen. Wie sieht die Zukunft der Intelligenz aus, und wie Intelligent wird unsere Zukunft sein? Vielleicht so, wie ich es in Zürich neulich erleben durfte, wo ich im Forschungslabor von IBM die Gelegenheit bekam, „Watson“ einen Besuch abzustatten und mich mit Dr. Ton Engbersen, dem Leiter Strategische Innovation über die Zukunft des Computing zu unterhalten.

Watson hat, wie allgemein bekannt sein dürfte, 2011 die beiden besten Spieler beim Fernseh-Ratespiel „Jeopardy!“ in Grund und Boden gespielt. Anders als bei den meisten Quizspielen wird hier andersherum gefragt: Auf die Antwort „Sin City“ („Stadt der Sünde“) müssen die Kandidaten die korrekte Frage finden, in diesem Fall: „Was ist Las Vegas?“ Das überfordert schon die meisten menschlichen Gehirne, geschweige denn ein künstliches, aber Watson setzte sich am Ende klar durch, weil er in der Lage war, aus den eigenen Fehlern und den Fehlern der anderen Kontestanten zu lernen.

Das ist neu, denn herkömmliche Computer können nur das tun, was ihnen der Mensch vorher einprogrammiert hat. Das liegt an den heute verwendeten Computersystemen, die alle nach der so genannten „Von-Neumann-Architektur“ arbeiten, die vom österreich-ungarischen Mathematiker John von Neumann stammt, und die Informationen binär, also in Serien von Einsern und Nullen speichert und verarbeitet. Weiterlesen