Künstliche Intelligenz & UX Design

Agnieszka Walorska / Creative Construction

Ich habe vor etwa 10 Jahren angefangen, in dem Bereich Customer Experience zu arbeiten. Zu diesem Zeitpunkt gab es nicht mal so richtig den Job eines User Experience Designers, zumindest nicht in Deutschland.

Es wurde manchmal von Usability gesprochen, aber häufig wurde sie nicht ganz so ernst genommen. Wenn ein Produkt durch einen Nutzertest durchgefallen war, war es üblich von einem Auftraggeber einen Kommentar zu hören wie: “Das ist doch nicht so schlimm, die Nutzer werden schon lernen, damit umzugehen”. Meine Aufgabe war also eher, den Schaden zu begrenzen und die Frustration bei den Nutzern zu minimieren als mich der Konzeption großartiger und innovativer Nutzererfahrungen zu widmen.

Mittlerweile haben die meisten die Relevanz der User Experience begriffen. Natürlich kann die so eben beschriebene Situation trotzdem mal vorkommen, jedoch passiert das deutlich seltener.

Die Erwartungen an die Technologie haben sich in den letzten 10 Jahren sehr verändert. Technologie ist jetzt überall und sie ist so günstig, dass jedes Produkt mit Sensoren und Internetverbindung ausgestattet werden kann: von Zahnbürsten über Schuhe und T-Shirts bis zu Thermostaten und Ampeln.

Und ein immer wichtiger werdender Faktor, der diese Veränderung beeinflusst, ist die Künstliche Intelligenz.

Das letzte Jahr, das Jahr 2015, war durch eine enorme Entwicklung in diesem Bereich gekennzeichnet. Die Tech-Riesen wie Google, Facebook, IBM, Microsoft und Amazon haben die Künstliche Intelligenz zu ihrer strategischen Priorität gemacht, die ihre Zukunft weitestgehend bestimmen wird. Dieser Trend hält auch 2016 an. Und eine Sache halte ich in dem Kontext für besonders interessant. Die riesigen Fortschritte, die diese Unternehmen in dem Bereich gemacht haben, behalten sie nicht für sich alleine. Sie stellen die Ergebnisse ihrer Arbeit auch anderen zur Verfügung. Zum Teil sogar open source. Somit kann jedes Unternehmen, egal ob großer Konzern oder frisch gegründeter Startup von dieser Entwicklung profitieren und künstlich intelligente Algorithmen in ihre Produkte implementieren.

Die Technologie haben wir also bereits, aber was hat sie eigentlich für eine Bedeutung für die Customer Experience? Sind das nicht einfach irgendwelche Algorithmen, die im Hintergrund laufen, die aber in der Interaktion nicht wahrgenommen werden? Ja und nein. Es stimmt schon, dass sie von den Nutzern nicht bewusst wahrgenommen werden - aber ist das nicht sowieso das Ziel einer guten Nutzerführung? Soll die Erfahrung nicht eben so gestaltet werden, dass der Kunde sich keine Gedanken darübermachen muss, wie und warum das genau so funktioniert? Gerade weil diese Algorithmen nicht in der Interaktion bewusst wahrgenommen werden und sie diese Interaktion zugleich enorm beeinflussen, wenn man sie richtig einsetzt, sind sie für das User Experience Design extrem wichtig.

Wir denken häufig gar nicht daran, aber intelligente Algorithmen sind schon jetzt in vielen der von uns täglich genutzten Anwendungen integriert.

Beispiel E-Mail: Uns ist wahrscheinlich gar nicht bewusst , wie viel weniger SPAM sich mittlerweile in unseren Posteingängen befindet - dank maschinellem Lernen.

Ähnlich sieht es mit dem User Generated Content aus. Es ist nämlich nicht so, dass die große Mehrzahl der von Nutzern erstellten Bewertungen, Rezepte und anderen Beiträge grammatikalisch korrekt und schön geschrieben sind. Trotzdem sind sie das meistens dann, wenn wir sie zu sehen bekommen. Und das liegt nicht (bzw. nicht mehr) daran, dass eine Armee von Redakteuren diese bewertet und freigibt, sondern daran, dass die Algorithmen immer besser in der Lage sind, gute von schlechten Inhalten zu unterscheiden.

AI hat auch Einzug in das Kernprodukt von Google, die Suche gehalten: Erst im Frühjahr 2015 in Googles Suche integriert, fungiert RankBrain heute bereits als drittwichtigster Ranking-Faktor bei der Darstellung der Suchergebnisse und kann ungewohnte Fragen mit einer höheren Treffsicherheit beantworten als ein menschlicher Experte.

Und was glaubt ihr steckt hinter Facebooks Newsfeed, der uns bestimmte Posts zeigt und einige vor uns verbirgt?

Künstliche Intelligenz erleben wir auch jedes Mal, wenn wir bei Amazon einkaufen. Basierend auf den Produkten, die ich gekauft oder zumindest angeschaut habe, werden mir weitere Artikel empfohlen, die mich interessieren könnten. Und meistens funktioniert das auch ganz akzeptabel. Mir zum Beispiel werden in der Regel Bücher aus dem Bereich UX, AI, Management etc. vorgeschlagen.

Manchmal werden mir aber auch Sachen vorgeschlagen, bei denen ich mich frage, ob das eigentlich ein Bug oder ein Feature ist - wie zum Beispiel der Teaser mit Babyzeug hier. Vielleicht versucht mir der künstlich intelligente Algorithmus was zu sagen - denn aus meinem üblichen Nutzerverhalten kann definitiv kein Interesse an Schwangerschaft abgelesen werden. Ich habe mich gefragt, ob der Algorithmus vielleicht etwas weiß, was ich nicht weiß, und habe sofort einen Schwangerschaftstest gemacht. Echt jetzt. Zum Glück war er negativ.

Aber solche Versuche antizipativer Erfahrungen werden dank Künstlicher Intelligenz immer besser. Lasst uns das Missgeschick von Amazon schnell vergessen und uns gelungenere Modelle anschauen. Immer mehr Anwendungen versuchen, aktiv „mitzudenken“. Sie wissen, was ich in dem gegebenen Moment tue, und „überlegen“, was ich als nächstes tun werde, ohne dass ich das explizit sagen muss.

So als würde ich meinem Freund schreiben „Hallo Schatz, ich komme heute gegen 20:00 Uhr und bin ziemlich gestresst“ und er würde mir ohne eine explizite Aufforderung ein entspannendes Bad vorbereiten, Kerzen anzünden und ein Glas Wein einschenken.

 Na ja, sowohl bei den Anwendungen als auch bei meinem Freund funktioniert das noch etwas holprig, aber die Chancen stehen gut, dass sich das ganze verbessern wird. Zumindest bei den Anwendungen.

Das fängt mit seht unauffälligen Interaktion an wie dem Autocomplete bei den Smartphones. Oder auch der automatischen Verlinkung der in einer E-Mail oder Nachricht gemachten Zeitangaben zu einem Kalendereintrag.

Weiter geht es mit einer Anwendung wie Google Now, die meine Routinen und mein Verhalten lernt und diese dann mit den äußeren Umweltbedingungen abstimmt. Abhängig von meinem üblichen Tagesablauf und derzeitigen Aufenthaltsort kann es zum Beispiel erkennen, ob ich gerade zu Hause oder auf der Arbeit bin, welches meine wahrscheinlichste nächste Destination ist, ob es auf dem gewohnten Reiseweg zu diesem Ziel derzeit Staus gibt. Und es kann mir somit – ohne dass ich es explizit anfordern muss – Alternativen vorschlagen.

All diese Beispiele zeigen, wie die Customer Experience dank des Einsatzes von Künstlicher Intelligenz verbessert werden kann. All das passiert allerdings bisher in der uns wohlbekannten Grafischen Benutzeroberfläche (GUI). Diese nehmen wir mittlerweile als gegeben an, und vergessen, dass es sich dabei eigentlich um einer relativ neue Entwicklung handelt. Die GUI ist nämlich etwa so alt wie ich. Steve Jobs hat sie damals PARC Labs bei Xerox entdeckt und sie zur Grundlage des Macintosh Betriebssystems gemacht.

Davor haben wir nämlich die Computern nicht durch Klicken mit der Maus auf Icons bedient, sondern mussten komplizierte Befehle kennen um mit den Maschinen interagieren zu können. Mit „wir“ meine ich hier natürlich Homo Sapiens an sich – die meisten hier anwesenden, kennen nämlich nur die Benutzeroberfläche, die einem großen Spektrum von Nutzern den Zugang zu Computern ermöglicht hat.

 

Vor allem seit Microsoft Apples Vorstoß mit Windows folgte und seitdem die Befehlszeile für die meisten Nutzer aus dem Bewusstsein verschwunden ist und der Computer Einzug in jeden Haushalt gehalten hat.

Vor diesem Hintergrund ist jedoch fast in Vergessenheit geraten, dass die natürlichste Interaktion für den Menschen immer noch seine Sprache darstellt und dass wir nur deswegen auf kleinen und großen Screens klicken und tappen, weil uns sonst die Maschinen nicht verstehen würden. Und weil sie uns bisher nicht anders verstanden haben, war häufig eine lange Kette von Handlungen notwendig, um das eigentlich Erwünschte zu erledigen.

Bis zur Buchung eines Fluges können schon mal 18 Schritte auf 10 verschiedenen Screens erforderlich sein, auf denen man sich durch eine Vielzahl an Eingabefeldern, Auswahlboxen, Drop-downs und Buttons navigieren muss.

Insbesondere angesichts der mobilen Nutzung hat sich das Problem weiter verschärft: Die auf einen Bruchteil früherer Größe geschrumpften Bildschirme erfordern eine wesentliche Reduktion der Komplexität, um überhaupt noch nutzbar zu sein. Deswegen haben wir alle immer viel Aufwand darin investiert, die Screens zu optimieren.

Jetzt können wir aber mithilfe der Künstlichen Intelligenz die tatsächliche Customer Experience optimieren und die Screens vergessen.

Der beste Interface ist nämlich kein Interface.

Den ersten Schritt in diese Richtung haben viele der Anbieter schon gemacht und zwar mit einem conversational interface. Das ist das am einfachsten zu erreichende Ziel auf dem Weg zu Zero UI oder no UI. Von allen Input-Möglichkeiten ist nämlich der digitale Text am direktesten und für die Maschinen immer noch am einfachsten zu verstehen. Der Text bietet weniger Fehlinterpretationsmöglichkeiten als gesprochene Sprache, Mimik oder Gesten. Dank Künstlicher Intelligenz kann die natürliche Sprache in strukturierte Daten umgewandelt werden, auf deren Basis dann die Anwendung die erwünschte Handlung durchführen kann. Wir brauchen zwar weiterhin ein Interface, aber das ist ein Interface, das sehr reduziert ist und vertraut wirkt. Wenn Messaging zum User Interface wird, müssen wir uns nicht mehr mit einer Fülle von unterschiedlich gestalteten Screens mit unterschiedlichen Menus, Buttons und Labels beschäftigen.

Neben der Reduktion der kognitiven Überladung der grafischen Benutzeroberfläche bietet der Conversational Interface zudem die Möglichkeit, hypothetische zukünftige Zustände abzudecken, für die es keine grafische Repräsentation gibt: So könnte ein Nutzer etwa mit der Aussage „Überweise € 500 auf mein Sparkonto, sobald meine Gehaltszahlung eingeht“ eine an Bedingungen geknüpfte Transaktion in der Zukunft initiieren.

In Kombination mit den bereits erwähnten antizipativen Erfahrungen demonstriert eine derartige Interaktionsmöglichkeit eine enorme kognitive Entlastung des Nutzers, wenn der Computer auf meine Aufforderung hin „Reserviere einen Tisch im Soho House für Alex, Wolfram und mich eine Stunde nach meinem letzten Meeting“ sämtliche erforderlichen Schritte selbst übernimmt: vom Zugriff auf den Kalender zur Identifikation des letzten Meetings und seiner Dauer, der Ableitung, dass ein Tisch für drei Personen benötigt wird, dem Zugriff auf das Reservierungssystem des Restaurants sowie dem Zugriff auf das eigene Adressbuch zum Versand der Termineinladung an Alex und Wolfram. Wenn ich das jetzt  ohne so einen schlauen Chat-Assistenten machen müsste, würde ich eine Menge Schritte mit unterschiedlichen Anwendungen mit sehr unterschiedlichen UIs durchführen müssen.

Der nächste Schritt ist aber auch schon da: die Entschlüsselung nicht nur der geschriebenen, sondern der gesprochenen Sprache - der wohl natürlichsten Form der menschlichen Kommunikation. Diese Entschlüsselung stellte lange eine Herausforderung für Computer dar, hat aber in ihrer Treffsicherheit den Menschen unterdessen fast eingeholt.

So sind dann auch alle anderen Anbieter Apples Siri mit ihren eigenen auf natürlicher Sprache basierenden Assistenten gefolgt, die gleich eine Reihe von Komponenten Künstlicher Intelligenz enthalten: Google Now, Microsoft Cortana, Facebook M, Amazon Echo – ja sogar Barbie – interagieren mit dem Menschen in natürlicher Sprache und übernehmen die Erledigung eines sich ständig erweiternden Sets von Funktionen.

Und was gerade bei Echo und bei Barbie auffällt - diese haben nicht mal einen Screen, was einen weitergehenden Schritt in Richtung “no UI” bedeutet. Auch Wearables wie z.B. Fitness Tracker oder Home-Automation-Systeme wie etwa Googles Nest machen deutlich, dass das Grafische Benutzer Interface (GUI) bei zunehmend kleiner werdenden Computern obsolet wird.

In diesen Trend fügen sich auch die “Hearables” von denen wir immer häufiger zu hören bekommen. Diejenigen, die den film “Her” gesehen haben, können sich sicher schnell was darunter vorstellen (hier vielleicht ein kurzer Filmausschnitt). Aber auch wenn es sich bei “Her” um Science Fiction handelt, sind die Hearables keine Science Fiction, sondern bereits auf dem Markt. Sony lancierte vor nicht allzu langer Zeit Experia Ear, die es ermöglicht, die wichtigsten Interaktionen wie z.B. Nachrichten empfangen und verschicken, Kalendernutzung, Verkehrsinformationen etc. ganz ohne Display durchzuführen. Bragi Dash gehen noch weiter und erfüllen zudem die Funktion eines Fitnesstrackers.

Die Sprache wird auch in anderer Hinsicht künftig keine Hürde mehr darstellen. Innerhalb der kommenden Jahre werden Menschen mithilfe von künstlicher Intelligenz ohne Sprachbarrieren miteinander kommunizieren können. Die Hearables können dann die Funktion eines Simultanübersetzers übernehmen. Eine erste Iteration dieser Technologie hatte Microsoft mit Skype bereits im Vorjahr auf den Markt gebracht.

Und warum brauchen wir eigentlich noch Sprachsteuerung, wenn die Anwendungen bald durch unsere Gedanken steuern können? Der eine oder andere denkt sich vielleicht gerade, „jetzt reicht es aber, die Tante hat definitiv zu viel Science Fiction geschaut“. Ja, das hab ich auf jeden Fall, aber so weit von der Realität bin ich auch nicht weg. Gedankengesteuerte Prothesen sind vielleicht noch keine Selbstverständlichkeit, aber einige Patienten verwenden sie bereits. Chinesische Ingenieure haben eine Software entwickelt, die gedankengesteuertes Autofahren ermöglichst. Da frage ich mich zwar, was genau Sinn der Sache ist angesichts des Entwicklungsstandes der selbstfahrenden Autos, aber möglich ist es ja. Und zukünftig kann ich dann vermutlich mit meinem selbstfahrenden Auto gedankengesteuert interagieren.

Das sind bei weitem nicht alle Beispiele für den Einfluss, den Künstliche Intelligenz auf das Design ausübt. Was sie aber deutlich zeigen ist, dass die aktuelle technologische Entwicklung, besonders die im Bereich der Künstlichen Intelligenz, zu einer abnehmenden Rolle der grafischen Benutzeroberfläche führen wird, dass diese nicht mehr für die Mensch-Maschine-Interaktion notwendig sein wird.

Was bedeutet das aber für unsere Jobs? Der Job der Designer hat sich in den letzten Jahren dauernd verändert. Es gab und gibt Web-Designer, Screen Designer, User Interface Designer, Mobile Designer, Interaction Designers, Customer Experience Designer und so weiter. Wie wird die künstliche Intelligenz diese Jobs verändern?

Laut der Analyse von NPR mit dem Titel “Wird Dein Job durch die Maschine ersetzt” soll die Gefahr für Designer nicht ganz so groß sein. Nur 8,2% beträgt die Wahrscheinlichkeit, dass die Künstliche Intelligenz innerhalb der kommenden 20 Jahre den Job eines Designers obsolet macht. Im Vergleich dazu sollen es bei den Entwicklern 48,1% sein. Ich frage mich, ob das nicht sogar ein wenig zu optimistisch ist.

Auch wenn der Job eines digitalen Designers (lasst mich all die vorher erwähnten Jobs darunter subsumieren) zu den kreativen Berufen gehört, ist er trotzdem nicht frei von repetitiver Arbeit. Wie kreativ und spaßig der Designerjob sein kann, weiß jeder, der schon mal einen Werbebanner für 50 unterschiedliche Formate anpassen musste. Oder die Grafiken bei einer mobilen Applikation anpassen, damit sie in jeder Auflösung und auf allen Bildschirmgrößen gut aussehen. Ich wette, dass euch noch viele andere Arbeitsbereiche einfallen, bei denen ihr nichts dagegen hättet, sie zu automatisieren.

Auch die Evaluation und Optimierung der Interfaces kann und wird jetzt schon zum Teil automatisiert durchgeführt. Dank Services wie VWO oder Optimizely können die Interfaces, die am besten performen, identifiziert und automatisch angezeigt werden.

So weit so gut, aber kann das vielleicht noch weitergehen? Wie wird der Job eines Designers aussehen, wenn die Interaktionen zwischen Mensch und Maschine immer weniger visuell und immer mehr implizit werden? Steve Jobs sagte mal, die meisten Menschen würden den Fehler machen zu denken, dass Design das Aussehen von etwas bedeutet. Design sei aber nicht das, wie etwas aussieht oder sich anfühlt. Design ist, wie es funktioniert. Und ich bin davon überzeugt, dass diese Aussage immer stärker in der Zukunft den Job des Designers prägen wird.

 

Und denkt noch an einen anderen Aspekt des Designer-Jobs. Wir denken, dass wir sicher sind, da wir kreativ sind. Wir sprechen den Maschinen die Kreativität ab. Aber was bedeutet in diesem Kontext eigentlich Kreativität? Die Kunst, die vom Googles Deep Dream produziert wurde, sieht eigentlich ziemlich kreativ aus. Auch diverse Musikstücke wurden schon von intelligenten Algorithmen komponiert.

Aber ich will mich an der Stelle gar nicht zu sehr in eine philosophische Debatte begeben. Was feststeht, ist, dass die Zeit der Künstlichen Intelligenz diesmal wirklich gekommen ist. Und genauso wie das Internet kein “Trend” war, der gekommen und schnell wieder gegangen wäre, sieht es mit der Künstlichen Intelligenz aus. Sämtliche Tech-Giganten haben AI als die zentrale Technologie mit transformativen Potenzial über alle Bereiche hinweg identifiziert. Allein bei Google arbeiten über 1.000 Forscher nur in diesem Feld und denken jegliche Tätigkeit des Unternehmens auf dieser Basis neu. Auch Facebook, Microsoft, IBM, Amazon, Tesla, Uber und viele andere mehr haben AI als strategische Priorität ausgerufen und scheuen keinerlei Aufwand.

Künstliche Intelligenz wird bleiben und sich rapide entwickeln. Und sie wird nicht nur unsere Nutzung von Computern oder Smartphones beeinflussen, sie wird unseren Alltag nachhaltig verändern.

Da wir Menschen aber gewohnt sind, in linearen Zusammenhängen zu denken, sprengt die Konsequenz derart exponentieller Entwicklungen unsere Vorstellungskraft. Der AI-induzierte Wandel wird wesentlich schneller und tiefgreifender sein, als es sich die meisten von uns vorstellen können.