Das wird AI niemals
können!!!
Andres Wanner
… und warum Du Dir trotzdem über Deinen Job Gedanken machen solltest.
AI wird niemals schreiben können wie ein Mensch – sagt ein Blogger. AI wird niemals ein Unternehmen beraten können – sagt ein Unternehmensberater. AI wird Ärzte nicht ersetzen – steht im Ärzteblatt. Ich stosse in letzter Zeit häufig auf solche Aussagen. In Gesprächen, in populären Artikeln, in Hochschulgremien. Man ist sich sicher, was «Artifical Intelligence» (AI), also Algorithmen mit sogenannter «künstlicher Intelligenz» nie können werden: Empathie zeigen, intuitiv entscheiden, moralisch urteilen, freien Willen ausüben, oder aber: kreativ sein.
Was mich daran verblüfft sind nicht die anscheinend erkannten Limitierungen einer aktuellen Wachstums-Technologie (wer würde sich wundern, dass eine Technologie, wie jede andere, ihre Limitierungen hat). Vielmehr erstaunt mich die trügerische Gewissheit, mit der diese Einsichten vorgetragen werden, als etwas das keiner weiteren Belege bedarf – als Glaubenssatz, den man einfach ganz tief in sich spürt. Häufig mit dem Verweis auf das Menschliche, das per Definition dem Menschen allein vorbehalten sei. Alan Turing, der in den 30er Jahren die konzeptuelle Grundlage für den späteren Bau des ersten Computers gelegt hat, nannte dies den «theologischen Einwand» gegen AI: Denken ist eine Funktion der unsterblichen Seele des Menschen – deshalb kann kein Computer denken.
Heutige Vorbehalte gegenüber AI relativieren sich in historischem Kontext: Viele Prognosen über Begrenzungen von AI lagen daneben. Lange schien es unvorstellbar, dass ein Computer den besten menschlichen Schachspieler würde schlagen können (so geschehen mit Deep Blue im Jahre 1999). Und wer hätte vor kurzem noch dran geglaubt, dass eine AI wie Google Duplex für uns einen Anruf beim Friseur ausführen könnte? Viele, die die geistige Überlegenheit des Menschen über die Maschine hochhalten, haben sich irgendwann ganz selbstverständlich angewöhnt, ihre Emails maschinell in eine Fremdsprache übersetzen zu lassen. Damit wir als Kreative also mit besserer Begründung einschätzen können, ob AI jemals kreativ tätig sein kann: lasst uns hinsehen!
Kreativität
Was ist denn Kreativität eigentlich, oder genauer gefragt: was wäre eine operationalisierbare Definition, an der sich AI messen kann? Das müsste eine Definition sein, die nicht von Ausdruck eines inneren Erlebens abhängt, von dem wir ja nicht wissen, ob eine AI das hat. Um sagen zu können, ob AI in einer kreativen Berufspraxis sinnvolle Tätigkeiten ausführen kann, hilft es stattdessen, Kreativität aufgrund der sichtbaren Ergebnisse zu definieren. In der Kreativitätsforschung (die sich ebenso an sichtbaren Outcomes orientiert) definiert man seit Mitte des 20. Jahrhunderts Kreativität als Fähigkeit, etwas Neues zu schaffen, das Wert hat oder Wirkung zeigt. Das Neue in den Künsten soll uns bewegen, berühren, oder zum Nachdenken anregen. In der angewandten gestalterischen Berufspraxis reicht es wohl schon, eine AI kreativ zu nennen, wenn sich ihre Produkte von Bestehendem abheben, und wenn sie eine Aufgabe ähnlich gut lösen kann, wie eine menschliche Kreativarbeiterin. Wenn das der Fall ist, kann sie für den Arbeitsmarkt eine Rolle spielen.
Der Kreativität kommt in der Diskussion über AI eine interessante Rolle zu: nicht nur, weil sie oft als schwer erreichbare Messlatte künstlichen Denkens angesehen wird. Sondern auch, weil die Definition von Kreativität derjenigen der Intelligenz ähnlich ist. Das Nerd-Buch «Gödel, Escher, Bach» (mein Lieblings AI-Klassiker), definiert Intelligenz als Fähigkeit, aus einem «System hinauszuspringen», gedanklich die Ebene zu wechseln. Das erinnert an den kreativen Anspruch «Thinking out of the Box», den Raum des bisher Gedachten zu verlassen. Wer denkt, dass Computer diesen Raum des schon Gedachten nicht verlassen können, steht in der Tradition des alten Einwands von Lady Lovelace (einer Pionierin der Informatik, die lange vor den ersten Computern lebte). Der Einwand lautet in etwa: ein Computer könne immer nur das tun, wozu wir es anweisen, jedoch nicht eigenständig etwas Neues hervorbringen. Aber bereits recht einfache Systeme generieren neuartige Resultate, die man aufgrund der Eingaben nicht leicht voraussehen kann. So hat der Neurowissenschaftler Valentino Braitenberg 1984 einfache Roboterfahrzeuge konzipiert, die mit einer überraschend simplen Sensor-Motor Kopplung (also ganz ohne Computer-Software) ein komplexes Verhalten zeigen. Diese Roboter können z.B. Holzklötze «aufräumen», ohne dass man sie direkt dazu anweist. Ein solches Verhalten ist aber noch kein Zeichen von Intelligenz, höchstens ein Hinweis auf die Komplexität, die dem System innewohnt. Der Lovelace’sche Einwand «Computer können nur tun, was wir ihnen sagen» war zu ihrer Zeit eine schlüssige Überlegung – heute zeigt man damit ein stereotypes Verständnis der Informatik, das ihrer Komplexität nicht gerecht wird.
AI Kritik vor und
nach Deep Learning
Die Geschichte der Computertechnologie ist begleitet von Provokation und Gegenprovokation. Auch wenn erste Computer und ihre Software nicht mit heutiger AI vergleichbar waren, wurden sie von Anfang an unter dem Aspekt des künstlichen Denkens diskutiert und kritisiert. Schon der erwähnte Computer Vordenker Alan Turing wappnete sich gegen mögliche Kritik an der Automatisierbarkeit des Denkens, die schon damals die Gemüter beunruhigt hat. Turing nahm in «Computing Machinery and Intelligence in Mind and Machine» die Antworten auf die prominentesten möglichen Einwände gegen seine Idee der Denkmaschine mit sarkastischem Humor vorweg (z.B. den oben genannten «theologischen Einwand», oder den Einwand von Lady Lovelace). Dagegen gliederte ein früher AI-Kritiker, der Philosoph Hubert Dreyfus gängige optimistische Grundannahmen über AI in vier Kategorien, und versuchte diese eine nach der anderen zu widerlegen. In seinem Buch von 1972, «What Computers (Still) Can’t Do», suchte er Beweise dafür, dass «Computer» niemals «wahrhaftig» «intelligent» sein können.
So erörterten Turing und Dreyfus zeitverschoben pro und kontra Argumente dafür und dagegen, ob der Computer jemals denken würde wie ein Mensch. Beide argumentierten auf mehr als einer Ebene. Die biologische Ausgangslage des menschlichen Denkens wurde herangezogen, die eine binäre Maschine nicht abbilden könne. Oder das Argument, dass konkretes menschliches Verhalten nicht festen und definitiven Regeln folge, und das solche Regeln für das menschliche Denken und Handeln auch nicht formell herleitbar seien. Bis vor etwa zehn Jahren war dies der Stand des Diskurses. Künstliche Intelligenz sollte mit genügend Regeln versehen werden, und damit möglichst nahe an bewusste menschliche Kognition kommen. Und dann kam der Aufstieg von Deep Learning. Deep Learning ist eine Methode, die auf netzwerk-artigen Modellen beruht. Diese Modelle können auf verschiedenen Abstraktionsebenen Muster in Daten erkennen und, je nach Anwendung, reproduzieren und nachbilden. Sie werden mit grossen Datenmengen statistisch «trainiert», und «lernen» dabei die darin enthaltenen Muster. Sie werden mit Fotos von Katzen ausgestattet, und erzeugen danach synthetische Katzenbilder. Oder sie eignen sich auf diese Weise englische Grammatik an, oder lernen Deinen Musikgeschmack. Wenn populärwissenschaftlich von AI gesprochen wird, so meint man heute meistens diesen Teilbereich Deep Learning. So wurde es plötzlich möglich, intelligentes menschliches Verhalten nachzubilden, auch ohne die Details des dahinterliegenden Denkens zu verstehen. Deep Learning bildet nur noch die Resultate ab – mit grossem Erfolg in Bildanalyse, Sprachanalyse und Übersetzung, bis hin zu medizinischer Diagnose und Problemanalyse. Dreyfus’ Einwände bezogen sich aber nicht nur auf die getreue Nachbildung menschlichen Denkens, sondern auch auf dessen Abhängigkeit vom jeweiligen Kontext. Das heisst, sogar wenn Algorithmen nur die Ergebnisse (statt der Prozesse) des menschlichen Denkens rekonstruieren (wie dies mit Deep Learning geschieht), so sind diese Ergebnisse immer kontextabhängig und bedürfen einer bestimmten Interpretation, damit sie als intelligent eingestuft werden können. Die Herausforderungen an künstliche Intelligenz und -Kreativität bestehen daher darin, in verschiedenen und wechselnden Kontexten zu bestehen. Für jede Regel braucht es – gemäss Dreyfuss – eine neue Regel, um «die Situation zu erkennen», «die Absicht des sprechenden» etc. Anders gesagt kann AI sehr wohl in einem gegebenen Kontext erfolgreich Intelligenz vortäuschen. Ein gutes Beispiel dafür sind Twitter Bots, die nur innerhalb des eng gesteckten Rahmens der Twitter- Kommunikation glaubwürdig sein müssen. Die Grenzen einer solchen künstlichen Situation zeigen sich spätestens beim Wechsel zwischen Kontexten. Dadurch ist z.B. die Telefon-Marketing Roboterin Samantha West herausgefordert, die glaubwürdig lacht, Pausen macht, und darauf insistiert sie sei eine reale Person. Sie scheitert aber bei der Aufforderung zum Wechsel der Konversations-Ebene, nämlich den einstudierten Telefon-Smalltalk momentan zu unterbrechen und den Satz «I am a real person» wörtlich zu wiederholen – so gibt sie ihre Natur preis.
Was hat das mit dem
Stellenmarkt zu tun?
Wenn also all diese AI Kritik gültig ist – wenn das Gehirn nicht binär funktioniert, Denken nicht formalisierbar und auch nicht simulierbar ist, und Intelligenz immer nur für einen spezifischen Kontext künstlich hergestellt werden kann – können wir dann beruhigt sein, dass uns die künstlichen Intelligenzen in der Kreativbranche nicht die Arbeit streitig machen? Oder sind das akademische Einwände, die durch die tatsächliche Entwicklung obsolet werden?
Meine Kollegin an der Hochschule Luzern, Ute Klotz, untersucht mit Sheron Baumann im Artikel «Die Digitalisierung der Berufe – und jetzt?» Fragen nach der Arbeitswelt der Zukunft. Sie zitieren Studien, wonach in der Schweiz rund die Hälfte der Beschäftigten von der Automatisierung betroffen sein könnten, und dass «diejenigen Beschäftigten das Rennen gewinnen werden, die kreative und soziale Fähigkeiten entwickeln.» (Hier ist sie wieder, die Kreativität!) Dabei erwähnen sie auch das Online-Tool Job Futuromat, des ersten Deutschen Fernsehens, in Zusammenarbeit mit deutschen Behörden. Der Job Futuromat analysiert nicht ganze Berufsbilder, sondern geht davon aus, dass in vielen Berufen einzelne Tätigkeiten automatisierbar sind (und andere vielleicht auch nicht). In einer Online Maske kann man verschiedene Berufe nach Tätigkeiten zerlegen, und so jeweils den Anteil der ersetzbaren Tätigkeiten eruieren. Je nachdem welchen Anteil an digital ersetzbaren Tätigkeiten ein Berufsbild beinhaltet, wird es als unterschiedlich stark automatisierbar bewertet. Die jeweilige Prozentzahl sagt nichts über die Arbeitszeit aus, sondern bezeichnet nur die Anteil der auomatisierbaren Tätigkeiten des jeweiligen Berufs. In verschiedenen Handwerksberufen sind dies bis zu 75%, je nachdem wieviele Funktionen durch Maschinen übernommen werden können. Bei anderen scheint es entscheidend, ob es echte Einsichten braucht, oder ob Routineaufgaben zu übernehmen sind. HR- Tätigkeiten erscheinen als bis zu 83% automatisierbar. In kreativen Berufen sind die automatisierbaren Tätigkeiten tatsächlich geringer: bei Schriftsteller:innen sind es immerhin 20%, wegen Einsparungen bei der Informationsbeschaffung. Grafikdesigner:innen 14% ihrer Aufgaben abgeben (Bildbearbeitung), Computer-Animator:innen zusätzlich mit Visualisierungs- und Animationsaufgaben insgesamt bis zu 38%. Bei Tätigkeiten die ein Hineinversetzen in ein menschliches Gegenüber verlangen, ist die Ersetzbarkeit eher gering: empathisch Zuhören zum Beispiel kann man schlecht simulieren (Psychotherapeut:in 10%). Ähnlich verhält es sich mit Zauberer:innen (0%), die gleich Lehrer:innen (11%) ein hohes Mass an Empathie für ihr Publikum brauchen. Wie wir gesehen haben fällt es AI schwer, den Kontext zu wechseln – wie im Fall von Pfarrer:innen (0%) die zwischen geistlichen und weltlichen Angelegenheiten vermitteln. «Sind wir körperliche Wesen mit einem Geist, oder spirituelle Wesen mit einem Körper?» Wer sich solche Fragen stellt, ist von einer AI kaum gut beraten. Wie sollte diese ohne Körper auch etwas dazu sagen können?
AI gestaltet mit
AI hält also in einer breiten Palette von Berufsfeldern Einzug, die Kreativbranche ist nicht ausgenommen. Wie könnte das konkret aussehen, und welche Rolle ist für AI tatsächlich im gestalterischen Berufsalltag zu erwarten?
An Computergrafik-Konferenzen und in konzeptuellen neuen Softwareprodukten wird schon heute spekuliert, wie sich die Zukunft der Design-Software entwickeln könnte, die der Gestalterin Arbeit abnimmt, und dabei selbst auch in gestalterisches Handwerk und kreative Entscheidungen eingreift. Bereits heute gibt es Software, die handwerkliche Arbeitsschritte von visuellen Gestalter:innen ergänzt und verstärkt. Zwischenschritte von Animationszeichnungen werden vervollständigt, Bild-Hintergründe werden freigestellt, oder Bildstörungen entfernt – alles aufwändige handwerkliche Arbeiten. Schwarzweiss- Bilder können mit Kontextwissen von AI koloriert werden, oder 3D Bilder so gerendert, dass sie handgezeichnet aussehen. Manche Tools übersetzen umgekehrt Handskizzen in produktionsfertige Layouts. Der Schritt der Reinzeichnung wird übersprungen, und die Gestalterin hat dadurch mehr Zeit, ihre Idee zu schärfen – oder während dem Rendern mit ihrem Latte Macchiato auf der Terrasse Pause zu machen. Oder sie stellt für das eingesparte Geld eine zusätzliche AI-Programmiererin ein. Verschiedene konzeptuelle Softwaretools wagen sich auch schon in den Bereich der Layoutgenerierung, Flyergestaltung, oder des Logodesign. Sie konkurrenzieren damit nicht die grosse CI Agentur, aber vielleicht den Newcomer-Wettbewerb auf Design-Crowdsourcing Plattformen. Das erinnert an eine Schlüsselstelle im Film I, Robot, als der Detektiv Spooner den Roboter Sonny provozierend fragt: «Can a robot write a symphony? Can a robot turn a canvas into a beautiful masterpiece?». Sonny fragt ohne Rührung zurück: «Can you?». Soll es darum gehen, ob AI ein künstlerisches Genie werden kann, und dabei die meisten von uns überragen wird? Oder ist es nicht schon von Bedeutung zu fragen, ob sie überhaupt eine Art von kreativer Arbeit übernehmen kann? Dass AI-basierte Tools auch ein wirtschaftliches Potenzial haben, illustriert Netflix. Ähnlich wie andere Plattformen analysiert der Streaming Anbieter sein Angebot mit statistischen Methoden, um zu erfahren, welche Varianten eines digitalen Layouts mehr Klicks generieren. Netflix geht aber noch einen Schritt weiter und erstellt je nach Zielgruppe unterschiedliche Vorschaubilder für die angebotenen Filme. Für verschiedene Nutzer werden, basierend auf deren Vorlieben, unterschiedliche Typografien und Bildsprachen für die klickbare Vorschau generiert. So hat sich gezeigt, dass in verschiedenen Ländern unterschiedliche Präferenzen für Bild-Layouts die Filmwahl beeinflussen. Und je nachdem, wer Komödien oder Romanzen mag, wird auf ein anderes Film-Standbild besser ansprechen. Netflix sagt es zwar nicht direkt, aber aufgrund der aktuellen technischen Entwicklung kann man davon ausgehen, dass solche Vorschau-Bilder von Software generiert werden. Unsere Filmwahl wird also vermutlich grafisch/visuell gegängelt von einer AI, die uns eine geschickte Komposition aus Text, Bild, Schrift und Farben präsentiert. Wenn sie sich dabei im statistischen Sinne an einer Zielgruppe orientiert, kann man ihre Tätigkeit als visuelle Gestaltung bezeichnen. Auf dem Sofa beklagen wir (mit Recht) den Verlust unseres selbstbestimmten Medienkonsums, und still und unsichtbar entgeht gleichzeitig irgendwo einer Grafikerin ein Auftrag. Sie hätte solche Varianten von Hand und mit echter Einfühlung in mögliche Adressaten gestaltet. Empathie wird durch statistisches Lernen von Mustern automatisiert.
Solche Entwicklungen liefern Hinweise darauf, wie man sich eine künftige AI-unterstützte Zusammenarbeit in der Kreativbranche vorstellen kann. AI ergänzt menschliche Intelligenz und wird dadurch zu «Augmented Intelligence», wie die Designerin und Developerin Harshani Chathurika treffend ausführt.
Im Bereich der Kunst zitiert man gerne das Portrait von Edmond Belamy, ein AI-Kunstwerk des Kollektivs Obvious, das an einer Auktion für einen unglaublich hohen Preis verkauft wurde. Mit einer Ästhetik die eher nach muffiger Malerei riecht als nach zeitgenössischer Kunst, dürfen wir es eher als Statement über den Kunstmarkt lesen, und weniger als Beleg für die Automatisierbarkeit von heute lebenden Künstler:innen. Einen interessanteren Umgang mit AI pflegt meines Erachtens hingegen der britische Künstler Scott Eaton, der AI dazu einsetzt, seine Zeichnungen mit fotografische Texturen anzureichern, und so plastische, und unheimlich fotorealistische Körperlandschaften zu generieren, z.B. in der Serie Entangled. Auch hier ersetzt AI dabei die Menschenhand nicht, sondern ergänzt sie, und lässt aus der Zusammenarbeit zwischen Mensch und Maschine etwas verstörend neuartiges entstehen. Auch andere Beispiele aus den Künsten können zur Illustration dienen, wie befremdlich das kreative Wirken von AI sein kann. Im Film Sunspring liefern sich drei Schauspieler einen sinnentleerten Dialog («I was much better than he did») aus einem AI-generierten Skript, das an das absurde Theater erinnert. AI generiert gerade Neues, dessen künstlerischen Wert wir vielleicht erst noch schätzen lernen. Ist das Befremdliche von heute die Avant-Garde von morgen? Oder werden wir uns an die Verstörung durch AI gewöhnen, ohne dass es dabei je zu einem berührenden Kunsterlebnis kommt?
Ob wir solches nun kreativ nennen, und ob es relevante Ausmasse annehmen wird, will ich hier beides nicht beantworten. Wir sollten uns aber nicht darauf verlassen, dass alles so bleiben wird wie es ist – warum sollte gerade diese Branche vor der Automatisierung gefeit bleiben? Als Gestalterinnen und Gestalter tun wir gut daran, solche Entwicklungen mitzuverfolgen, und auf mögliche Anschlussstellen an unsere kreative Praxis zu prüfen. Vielleicht begrüssen wir dann die AI demnächst als freundlich gesinnte, verschrobene Arbeitskollegin in unserem Atelier. Als Helferin für gewisse Aufgaben im Gestaltungsprozess, die unser Spektrum mit Ideen erweitert, auf die kein Mensch gekommen wäre.
Ich danke Erin Mallon und Daniel Pfäffli für kritische Kommentare und sachdienliche Hinweise beim Verfassen dieses Texts. In Anbetracht der populärwissenschaftlichen Form des Artikels verzichte ich auf die Angabe von Referenzen und Quellen – ich habe sorgfältig darauf geachtet, Gedankengut im Text zu kennzeichnen, das nicht von mir selbst stammt. Ich schreibe diesen Text aus einem Mitteilungsbedürfnis und ohne Auftrag oder konkrete dahinterliegende Interessen – ausser dass ich mich im Rahmen meiner Tätigkeit an der Schnittsstelle zwischen Mensch und Technologie über einen offenen Dialog über die angesprochenen Fragen freue.