Künstlich ja, Intelligenz nein.

< 1 Minute Lesedauer

Diesmal steht hier nur ein ganz kurzer Text, da auf etwas verlinkt wird, das viel besser, viel unterhaltsamer und vor allem viel fundierter erklärt, wie ChatGPT und andere KI-Anwendungen funktionieren – und welchen Nutzen und welche Grenzen die LLMs zum Beispiel im Journalismus haben.

Eva Wolfangel hielt vor einer Woche einen Vortrag bei einer Veranstaltung der saarländischen Landeszentrale für politische Bildung zusammen mit dem Verein Algoright e.V., der Landesmedienanstalt des Saarlandes und des Deutschen Forschungszentrums für Künstliche Intelligenz.

Die er­ste knappe Viertelstunde ist recht langatmig, hauptsächlich werden alle Beteiligten an der Veranstaltung gelobt und Eva Wolfangel wird vorgestellt, deswegen steigt dieser Link erst bei 14:43 ein.

Und ja, die Überschrift hier oben erklärt sich sehr schnell beim Angucken.

P.S.: Eva Wolfangel selbst gesteht übrigens auf Ma­stodon, dass, wenn sie eigene Interviews auf doppelter Geschwindigkeit abspielt, man fast alle anderen Menschen gut anhören kann auf diese Weise – nur ich spreche eigentlich wirklich zu schnell dafür.

Wirklich?

4 Minuten Lesedauer
Computergeneriertes Photo einer jungen Frau, die gar nicht existiert, aber überzeugend echt wirkt.
Mit StyleGAN erzeugtes Photo einer nicht existierenden Frau. Quelle: Wikimedia.

Vielen ist vermutlich noch nicht unbedingt klar, wie weit der Einfluss von Künstlicher Intelligenz schon reicht – und vor allem: sehr bald reichen wird.

Und wie sehr er unsere Wahrnehmung der Welt schon manipuliert – und noch manipulieren wird.

Längst lassen Firmen Bewerbungen von KI vorsortieren. Die SCHUFA ermittelt unsere Kreditwürdigkeit (und damit zum Beispiel auch unsere Chancen, eine Wohnung zu bekommen) mit KI-Einsatz. KI-gestützte Gesichtserkennung wird bei Strafverfolgern immer beliebter. In der medizinischen Diagnostik und Behandlungsplanung wird KI eingesetzt. Und diese Liste ist nicht mal die Spitze der Spitze des Eisbergs.

In all diesen Bereichen sind einige der möglichen Probleme: Gender Bias und Sexismus, Rassismus und Racial Profiling, Ageism, Ableismus – kurz: Diskriminierung. Und auch dies ist längst keine vollständige Liste.

Bei den meisten der oben genannten und vielen weiteren KI-Projekten ist den Betroffenen der Umfang, in dem Algorithmen eingesetzt werden, oft gar nicht bewusst. Aber seit etwa einem Jahr drängt die KI auch in den, sagen wir mal, sichtbaren Bereich des Alltags.

Das hat viel damit zu tun, dass die Anwendung ChatGPT, entwickelt von der Firma OpenAI (deren Hauptaktionärin Microsoft ist), im vergangenen Herbst öffentlich zugänglich gemacht wurde. Daraufhin gab es zahllose Artikel darüber (Journalist*innen mögen halt auch gern mal ein bisschen herumspielen), und im Anschluss meldeten sich Millionen Menschen auf der Website an, um’s mal selbst auszuprobieren.

Inzwischen ist klar: Die sogenannten LLMs (Large Language Models), zu denen auch ChatGPT zählt, machen Fehler und erfinden »Fakten«, die zwar überzeugend klingen, aber gar nicht stimmen (KI-Halluzinationen). Und sie diskriminieren.

Photo eines offenbar schon einige Jahrzehnte alten Spielzeugroboters aus Blech in roten und blau-grauen Pastelltönen lackiert.
Bild: Rock’n Roll Monkey via Unsplash.

Das allein ist beunruhigend genug und eigentlich ausreichend, um vor KI grundsätzlich erst einmal zu warnen. Fast noch gravierender ist aber vielleicht, welche zusätzliche Überzeugungskraft Generative KI dadurch gewinnt, dass sie auch mit Siebenmeilenstiefeln in andere Bereiche als das geschriebene Wort vordringt.

In den Sozialen Medien ging wie ein Flächenbrand das Photo von Papst Franziskus in jugendlicher Daunenjacke mit Hip-Hop-Bling in Kreuzform um; ebenso eines vom sich mit Händen und Füßen wehrenden Donald Trump bei seiner angeblichen Verhaftung.

Bei einem TED Talk aus dem April dieses Jahres zeigten Tom Graham (der seine Firma Metaphysic zusammen mit Chris Umé gründete, nachdem der mit TikTok-Videos von einem KI-erzeugten Tom Cruise berühmt geworden war) und der TED-Host Chris Anderson, wie reibungslos mittlerweile Deep Fakes schon funktionieren – live während des Interviews. (Inzwischen warnt Graham vor den Möglichkeiten unkontrollierter KI.)

Und kürzlich unterhielt sich Jakob Steinschaden von der österreichischen Agentur Trending Topics mit ChatGPT, das inzwischen auch sprechen gelernt hat. Abgesehen von einem leichten amerikanischen Akzent im Deutschen, einigen seltsam gesetzten Pausen und hier und da ungewöhnlichen Betonungen ist die Natürlichkeit dieser synthetischen Sprachausgabe äußerst überzeugend.

Geradezu beängstigend überzeugend.

Stellen wir uns jetzt vor, dass dieses Interview nun auch noch mit einem »ge-deepfaketen« Gesicht per Video geführt und dabei nicht als KI-erzeugt gekennzeichnet würde – dann ist die Grenze zwischen »echt« und »unecht« nicht mehr bloß verschwommen.

Sondern verschwunden.

Fake-News sind ja schon längst ein erhebliches Problem, sehr massiv auch bei politischen Inhalten (Wahlbeeinflussung durch Cambridge Analytica auf Facebook, Kriegspropaganda seitens russischer Bot-Netze, Desinformationskampagnen zum Israel-Gaza-Krieg und vielem mehr). Je überzeugender diese Fake-News präsentiert werden, desto weniger werden Menschen noch erkennen können, was wahr ist – und es ist Allgemeinwissen, dass Menschen dazu neigen, Bildern, vor allem bewegten Bildern, weit eher zu glauben als dem geschriebenen Wort.

Eins steht fest: Die kommenden Monate und wenigen Jahre werden unser Verständnis von Wirklichkeit massiv herausfordern.

Oder besser gesagt: auf den Kopf stellen.

Lass das doch die KI machen.

7 Minuten Lesedauer
Alte Abbildungen der Webmaschine Power Loom in Meyers Konversationslexikon.
Abbildung: Webautomat »Power Loom«, Wikipedia (gemeinfrei).

Während der vergangenen anderthalb bis zwei Jahrhunderte der Industriellen Revolution – einer der größten Umwälzungen in der Menschheitsgeschichte – mussten immer wieder ganze Berufsstände um ihre Existenz bangen.

Als die Webmaschinen eingeführt wurden, waren die Handweber*innen betroffen, die Spinnmaschinen machten die Spinner*innen überflüssig.

Am wenigsten beschwert haben werden sich die Pferde über die Einführung des Automobils, aber mit der Entwicklung von Robotern ging es auch Fabrikarbeitern an den Kragen.

»White-Collar-Jobs« allerdings, intellektuelle und kreative Tätigkeiten, schienen sicher vor dem Siegeszug der Technik.

Bis dann vor einer Weile »Künstliche Intelligenz«, »Maschinenlernen«, »Generative KI« und verwandte Begriffe auf der Bildfläche erschienen. Längst nicht so plötzlich, wie es vielen erscheinen mochte – die Entwicklung Künstlicher Intelligenz reicht weit ins vergangene Jahrhundert zurück –, aber trotzdem mit einem gewaltigen Momentum und dem Gefühl, ein Sturm komme auf.

Auf den ersten Blick mag es nur »gerecht« erscheinen, dass endlich mal auch die Snobs aus Gymnasium und Uni vom Fortschritt eingeholt werden und um ihre Jobsicherheit bangen müssen. Wie immer im Leben, so lohnt allerdings auch hier genaueres Hinsehen.

Bild einer vollautomatischen Autoproduktion; ein silbergraues, halbfertiges Autochassis hängt zwischen orangen Roboterarmen.
Bild: Lenny Kuhne via Unsplash.

Ohne chauvinistisch erscheinen zu wollen oder »von oben herab«: Es gibt Unterschiede zwischen den Tätigkeitsfeldern. Wenn ein Roboterpark das Zusammensetzen von Autos von den Arbeitern übernimmt, dann ist das unter Umständen sogar eine ganz gute Idee, weil die Maschinen ermüdungsfrei und präzise arbeiten, aber vor allem, weil die immer gleiche, »stumpfe« Tätigkeit den Menschen gar nicht mal besonders gut tut. Mental wie auch physisch.

Randbemerkung: Das war ja auch mal mit einem Versprechen verbunden: Wenn Maschinen die lästigen Arbeiten verrichten, dann haben die Menschen mehr Zeit für die schönen Dinge des Lebens, hieß es einst.

Daraus ist allerdings nichts geworden; mag sein, dass der Kapitalismus und vor allem seine Protagonisten (Sie wissen schon: Fabrikbesitzer, Shareholder, Millionäre, Milliardäre) daran einen nicht geringen Anteil haben.

Close-up of a laser beam on a human eye.
Bild: Brands&People via Unsplash.

Aber zurück zum Thema: Auch in manch anderen Bereichen mag der Einsatz von Robotern und Maschinen sinnvoll sein. Kritische Operationen zum Beispiel, die hohe Präzision erfordern, sind möglicherweise bei computergestützten Lasern in besseren … nun ja – Händen. (Allerdings braucht es im medizinischen Bereich unbedingt und in noch viel größerem Maß als in Deutschland heute üblich persönliche Ansprache und menschliche Nähe; hier darf die Maschine nur ergänzend und von nötigenfalls händchenhaltenden Menschen begleitet tätig sein.)

Auch die Auswertung riesiger Datenmengen (Big Data) für beispielsweise wissenschaftliche Zwecke zur Erforschung von Klimakatastrophe, Pandemieentwicklungen oder genetischen Strukturen ist sicher häufig eine unschätzbare Hilfe.

Wenn es aber um das Schaffen neuer Inhalte geht, also den schöpferischen Prozess, dann ist der Einsatz von Maschinenhirnen vollkommen unangebracht. (Und ja, auch eine Bewerbung zu schreiben, ist ein schöpferischer Prozess, dessen Ergebnis viel über die Person hinter den Worten verrät.)

Der Grund ist simpel: Maschinen sind nicht schöpferisch.

Sie (re-)kombinieren nur, was sie aufgeschnappt haben, während sie im unendlichen Internet unterwegs waren auf der Suche nach Beute. Dass sie dabei auf das Urheberrecht scheißen – drauf g’schissen!

Wenn sie denn wenigstens etwas wirklich Neues hervorbrächten.

Aber nein, Large Language Models (LLM) wie der phänomenal hochsterilisierte Automat ChatGPT, Googles Lamda, Metas Llama, der chinesische Ernie von Baidu und das Laptop-taugliche Orca von Microsoft, oder die Text-to-image-Graphikprogramme (DALL-E, Imagen, Stable Diffusion, Midjourney) plappern beziehungsweise pinseln nur nach, was ihnen vorgegeben wurde.

Unterstützt von – zugegebenermaßen beeindruckenden – riesigen künstlichen neuronalen Netzen (KNN) und Deep-Learning-Techniken, ziehen die Algorithmen durch die pflückreifen Felder des WWW und nehmen einfach alles mit, was nicht bei drei auf den Bäumen ist.

Aus den bei ihren Streifzügen erbeuteten Daten lesen sie dann Regelmäßigkeiten heraus. Je öfter B auf A folgt, desto sicherer werden die Bit-Gehirne, dass B hinter A gehört. Oder, wie es die englischsprachige Wikipedia ausdrückt: Generative AI models learn the patterns and structure of their input training data and then generate new data that has similar characteristics.

Frei übersetzt bedeutet das also, dass ChatGPT, Midjourney und all die anderen Anwendungen aus dem Bereich der generativen KI Muster und Strukturen ihrer Trainingsdaten lernen und neue Datensätze mit ähnlichen Eigenschaften erzeugen.

Man könnte das wohl »Nachäffen« nennen.

Auch das Online-Wörterbuch Linguee hat 2009 einfach erstmal angefangen, Texte im Netz zu analysieren. Mittlerweile zum Volltext-Übersetzungstool DeepL herangewachsen, ist es ein Beispiel dafür, was KI wirklich prima kann: das, was ist, auswerten.

Was sie nicht kann, ist, grundsätzlich Neues zu schaffen.

Und aus den oben beschriebenen Prinzipien der Datengewinnung und -analyse erwachsen eine Reihe weiterer Probleme:

  1. Die Algorithmen sind ignorant. Sie nehmen alles für bare Münze. Ohne Unterschied. Alles. Alle Fake-News, alle unabsichtlichen Irrtümer, alle absichtlich gestreuten Verwirrungen. Alle nationalistischen, rassistischen, sexistischen, misogynen, ableistischen Vorurteile. Sie diskriminieren, weil das Netz es tut. Hier ein, nein zwei, nein drei Links zu dem Thema (es hätten auch dreißig werden können).
  2. Die LLMs sind »Black Boxes«. Ab einem bestimmten Punkt, ab der n-ten Schicht der übereinandergestapelten Analyse-Ebenen wissen nicht mal ihre Programmierer mehr, was die Software tut.
  3. Die Ergebnisse wirken, zumindest auf den ersten Blick, überzeugend. Und bekanntlich ist es ja der erste Eindruck, der zählt; kaum jemand scheint noch gewillt oder gar imstande, tiefer zu schauen, sich Zeit zu nehmen, kritisch zu hinterfragen und selbst zu recherchieren. Sei es aus Bequemlichkeit oder auch Unvermögen: Viele Menschen verlassen sich auf das, was ihnen die KI vorsetzt. Und das kann der allergrößte Unfug sein, wie sich hier oder hier oder auch hier nachlesen lässt. Manchmal kann es sogar gefährlich werden. (Auch hier könnten wieder viele weitere Links stehen.)

Es gibt noch ein weiteres Argument, das hier zu entkräften versucht werden soll: Aber Nachahmung und Imitation sind doch immer die Grundlage des Lernens, und auch die Grundlage kreativer Schöpfung.

Kinderhände in Nahaufnahme beim Klavierspielen.
Bild: Clark Young via Unsplash.

Es stimmt, Menschen zwischen sechs Monaten und sechs Jahren verfahren ganz ähnlich wie die künstlichen neuronalen Netze, wenn sie Sprachen lernen, später dann ein Musikinstrument und Mathematik. Aber im Vergleich zu ihnen, die mit jedem neuen »Trainingssatz« auch ihr Verständnis erweitern, und deren Gehirne mit ihren Synapsen Verbindungen schaffen, die zu genuiner Neuschöpfung imstande sind, haben KI-Systeme gerade mal das Verständnis von Papageien.

Und auch Künstler*innen, Schreibende, alle Menschen, die etwas schaffen (und sei es ein Bewerbungsschreiben) greifen natürlich auf einen riesigen Datensatz aus Abgespeichertem und Wissen zurück – Grammatikregeln, Harmonie- und Farbenlehre, die Chorsätze der Beatles, die knappe, zurückgenommene Sprache Ernest Hemingways –, aber im Unterschied selbst zum »deepsten« Learning verstehen sie, was sie tun.

Wer will, mag auch gern sagen: Ihr Schaffen hat Seele. Oder, etwas weniger »eso«: Originalität.

Bis ein von einem LLM erzeugter Text es schaffen wird zu strahlen und zu funkeln, Menschen tief ins Herz zu treffen, sie dazu anzuregen, über die großen Fragen des Lebens zu reflektieren – kurz, Menschen zu bewegen, bis dahin wird wohl noch eine Ewigkeit vergehen. Buchstäblich.

WERNERPRISE° — Das Blog.