Während der vergangenen anderthalb bis zwei Jahrhunderte der Industriellen Revolution – einer der größten Umwälzungen in der Menschheitsgeschichte – mussten immer wieder ganze Berufsstände um ihre Existenz bangen.
Als die Webmaschinen eingeführt wurden, waren die Handweber*innen betroffen, die Spinnmaschinen machten die Spinner*innen überflüssig.
Am wenigsten beschwert haben werden sich die Pferde über die Einführung des Automobils, aber mit der Entwicklung von Robotern ging es auch Fabrikarbeitern an den Kragen.
»White-Collar-Jobs« allerdings, intellektuelle und kreative Tätigkeiten, schienen sicher vor dem Siegeszug der Technik.
Bis dann vor einer Weile »Künstliche Intelligenz«, »Maschinenlernen«, »Generative KI« und verwandte Begriffe auf der Bildfläche erschienen. Längst nicht so plötzlich, wie es vielen erscheinen mochte – die Entwicklung Künstlicher Intelligenz reicht weit ins vergangene Jahrhundert zurück –, aber trotzdem mit einem gewaltigen Momentum und dem Gefühl, ein Sturm komme auf.
Auf den ersten Blick mag es nur »gerecht« erscheinen, dass endlich mal auch die Snobs aus Gymnasium und Uni vom Fortschritt eingeholt werden und um ihre Jobsicherheit bangen müssen. Wie immer im Leben, so lohnt allerdings auch hier genaueres Hinsehen.
Ohne chauvinistisch erscheinen zu wollen oder »von oben herab«: Es gibt Unterschiede zwischen den Tätigkeitsfeldern. Wenn ein Roboterpark das Zusammensetzen von Autos von den Arbeitern übernimmt, dann ist das unter Umständen sogar eine ganz gute Idee, weil die Maschinen ermüdungsfrei und präzise arbeiten, aber vor allem, weil die immer gleiche, »stumpfe« Tätigkeit den Menschen gar nicht mal besonders gut tut. Mental wie auch physisch.
Randbemerkung: Das war ja auch mal mit einem Versprechen verbunden: Wenn Maschinen die lästigen Arbeiten verrichten, dann haben die Menschen mehr Zeit für die schönen Dinge des Lebens, hieß es einst.
Daraus ist allerdings nichts geworden; mag sein, dass der Kapitalismus und vor allem seine Protagonisten (Sie wissen schon: Fabrikbesitzer, Shareholder, Millionäre, Milliardäre) daran einen nicht geringen Anteil haben.
Aber zurück zum Thema: Auch in manch anderen Bereichen mag der Einsatz von Robotern und Maschinen sinnvoll sein. Kritische Operationen zum Beispiel, die hohe Präzision erfordern, sind möglicherweise bei computergestützten Lasern in besseren … nun ja – Händen. (Allerdings braucht es im medizinischen Bereich unbedingt und in noch viel größerem Maß als in Deutschland heute üblich persönliche Ansprache und menschliche Nähe; hier darf die Maschine nur ergänzend und von nötigenfalls händchenhaltenden Menschen begleitet tätig sein.)
Auch die Auswertung riesiger Datenmengen (Big Data) für beispielsweise wissenschaftliche Zwecke zur Erforschung von Klimakatastrophe, Pandemieentwicklungen oder genetischen Strukturen ist sicher häufig eine unschätzbare Hilfe.
Wenn es aber um das Schaffen neuer Inhalte geht, also den schöpferischen Prozess, dann ist der Einsatz von Maschinenhirnen vollkommen unangebracht. (Und ja, auch eine Bewerbung zu schreiben, ist ein schöpferischer Prozess, dessen Ergebnis viel über die Person hinter den Worten verrät.)
Der Grund ist simpel: Maschinen sind nicht schöpferisch.
Sie (re-)kombinieren nur, was sie aufgeschnappt haben, während sie im unendlichen Internet unterwegs waren auf der Suche nach Beute. Dass sie dabei auf das Urheberrecht scheißen – drauf g’schissen!
Wenn sie denn wenigstens etwas wirklich Neues hervorbrächten.
Aber nein, Large Language Models (LLM) wie der phänomenal hochsterilisierte Automat ChatGPT, Googles Lamda, Metas Llama, der chinesische Ernie von Baidu und das Laptop-taugliche Orca von Microsoft, oder die Text-to-image-Graphikprogramme (DALL-E, Imagen, Stable Diffusion, Midjourney) plappern beziehungsweise pinseln nur nach, was ihnen vorgegeben wurde.
Unterstützt von – zugegebenermaßen beeindruckenden – riesigen künstlichen neuronalen Netzen (KNN) und Deep-Learning-Techniken, ziehen die Algorithmen durch die pflückreifen Felder des WWW und nehmen einfach alles mit, was nicht bei drei auf den Bäumen ist.
Aus den bei ihren Streifzügen erbeuteten Daten lesen sie dann Regelmäßigkeiten heraus. Je öfter B auf A folgt, desto sicherer werden die Bit-Gehirne, dass B hinter A gehört. Oder, wie es die englischsprachige Wikipedia ausdrückt: Generative AI models learn the patterns and structure of their input training data and then generate new data that has similar characteristics.
Frei übersetzt bedeutet das also, dass ChatGPT, Midjourney und all die anderen Anwendungen aus dem Bereich der generativen KI Muster und Strukturen ihrer Trainingsdaten lernen und neue Datensätze mit ähnlichen Eigenschaften erzeugen.
Man könnte das wohl »Nachäffen« nennen.
Auch das Online-Wörterbuch Linguee hat 2009 einfach erstmal angefangen, Texte im Netz zu analysieren. Mittlerweile zum Volltext-Übersetzungstool DeepL herangewachsen, ist es ein Beispiel dafür, was KI wirklich prima kann: das, was ist, auswerten.
Was sie nicht kann, ist, grundsätzlich Neues zu schaffen.
Und aus den oben beschriebenen Prinzipien der Datengewinnung und -analyse erwachsen eine Reihe weiterer Probleme:
- Die Algorithmen sind ignorant. Sie nehmen alles für bare Münze. Ohne Unterschied. Alles. Alle Fake-News, alle unabsichtlichen Irrtümer, alle absichtlich gestreuten Verwirrungen. Alle nationalistischen, rassistischen, sexistischen, misogynen, ableistischen Vorurteile. Sie diskriminieren, weil das Netz es tut. Hier ein, nein zwei, nein drei Links zu dem Thema (es hätten auch dreißig werden können).
- Die LLMs sind »Black Boxes«. Ab einem bestimmten Punkt, ab der n-ten Schicht der übereinandergestapelten Analyse-Ebenen wissen nicht mal ihre Programmierer mehr, was die Software tut.
- Die Ergebnisse wirken, zumindest auf den ersten Blick, überzeugend. Und bekanntlich ist es ja der
erste Eindruck, der zählt
; kaum jemand scheint noch gewillt oder gar imstande, tiefer zu schauen, sich Zeit zu nehmen, kritisch zu hinterfragen und selbst zu recherchieren. Sei es aus Bequemlichkeit oder auch Unvermögen: Viele Menschen verlassen sich auf das, was ihnen die KI vorsetzt. Und das kann der allergrößte Unfug sein, wie sich hier oder hier oder auch hier nachlesen lässt. Manchmal kann es sogar gefährlich werden. (Auch hier könnten wieder viele weitere Links stehen.)
Es gibt noch ein weiteres Argument, das hier zu entkräften versucht werden soll: Aber Nachahmung und Imitation sind doch immer die Grundlage des Lernens, und auch die Grundlage kreativer Schöpfung.
Es stimmt, Menschen zwischen sechs Monaten und sechs Jahren verfahren ganz ähnlich wie die künstlichen neuronalen Netze, wenn sie Sprachen lernen, später dann ein Musikinstrument und Mathematik. Aber im Vergleich zu ihnen, die mit jedem neuen »Trainingssatz« auch ihr Verständnis erweitern, und deren Gehirne mit ihren Synapsen Verbindungen schaffen, die zu genuiner Neuschöpfung imstande sind, haben KI-Systeme gerade mal das Verständnis von Papageien.
Und auch Künstler*innen, Schreibende, alle Menschen, die etwas schaffen (und sei es ein Bewerbungsschreiben) greifen natürlich auf einen riesigen Datensatz aus Abgespeichertem und Wissen zurück – Grammatikregeln, Harmonie- und Farbenlehre, die Chorsätze der Beatles, die knappe, zurückgenommene Sprache Ernest Hemingways –, aber im Unterschied selbst zum »deepsten« Learning verstehen sie, was sie tun.
Wer will, mag auch gern sagen: Ihr Schaffen hat Seele. Oder, etwas weniger »eso«: Originalität.
Bis ein von einem LLM erzeugter Text es schaffen wird zu strahlen und zu funkeln, Menschen tief ins Herz zu treffen, sie dazu anzuregen, über die großen Fragen des Lebens zu reflektieren – kurz, Menschen zu bewegen, bis dahin wird wohl noch eine Ewigkeit vergehen. Buchstäblich.