Never confuse faith, or belief – of any kind – with something even remotely intellectual.

John Irving, A Prayer for Owen Meany (1989)

Wirklich?

4 Minuten Lesedauer
Computergeneriertes Photo einer jungen Frau, die gar nicht existiert, aber überzeugend echt wirkt.
Mit StyleGAN erzeugtes Photo einer nicht existierenden Frau. Quelle: Wikimedia.

Vielen ist vermutlich noch nicht unbedingt klar, wie weit der Einfluss von Künstlicher Intelligenz schon reicht – und vor allem: sehr bald reichen wird.

Und wie sehr er unsere Wahrnehmung der Welt schon manipuliert – und noch manipulieren wird.

Längst lassen Firmen Bewerbungen von KI vorsortieren. Die SCHUFA ermittelt unsere Kreditwürdigkeit (und damit zum Beispiel auch unsere Chancen, eine Wohnung zu bekommen) mit KI-Einsatz. KI-gestützte Gesichtserkennung wird bei Strafverfolgern immer beliebter. In der medizinischen Diagnostik und Behandlungsplanung wird KI eingesetzt. Und diese Liste ist nicht mal die Spitze der Spitze des Eisbergs.

In all diesen Bereichen sind einige der möglichen Probleme: Gender Bias und Sexismus, Rassismus und Racial Profiling, Ageism, Ableismus – kurz: Diskriminierung. Und auch dies ist längst keine vollständige Liste.

Bei den meisten der oben genannten und vielen weiteren KI-Projekten ist den Betroffenen der Umfang, in dem Algorithmen eingesetzt werden, oft gar nicht bewusst. Aber seit etwa einem Jahr drängt die KI auch in den, sagen wir mal, sichtbaren Bereich des Alltags.

Das hat viel damit zu tun, dass die Anwendung ChatGPT, entwickelt von der Firma OpenAI (deren Hauptaktionärin Microsoft ist), im vergangenen Herbst öffentlich zugänglich gemacht wurde. Daraufhin gab es zahllose Artikel darüber (Journalist*innen mögen halt auch gern mal ein bisschen herumspielen), und im Anschluss meldeten sich Millionen Menschen auf der Website an, um’s mal selbst auszuprobieren.

Inzwischen ist klar: Die sogenannten LLMs (Large Language Models), zu denen auch ChatGPT zählt, machen Fehler und erfinden »Fakten«, die zwar überzeugend klingen, aber gar nicht stimmen (KI-Halluzinationen). Und sie diskriminieren.

Photo eines offenbar schon einige Jahrzehnte alten Spielzeugroboters aus Blech in roten und blau-grauen Pastelltönen lackiert.
Bild: Rock’n Roll Monkey via Unsplash.

Das allein ist beunruhigend genug und eigentlich ausreichend, um vor KI grundsätzlich erst einmal zu warnen. Fast noch gravierender ist aber vielleicht, welche zusätzliche Überzeugungskraft Generative KI dadurch gewinnt, dass sie auch mit Siebenmeilenstiefeln in andere Bereiche als das geschriebene Wort vordringt.

In den Sozialen Medien ging wie ein Flächenbrand das Photo von Papst Franziskus in jugendlicher Daunenjacke mit Hip-Hop-Bling in Kreuzform um; ebenso eines vom sich mit Händen und Füßen wehrenden Donald Trump bei seiner angeblichen Verhaftung.

Bei einem TED Talk aus dem April dieses Jahres zeigten Tom Graham (der seine Firma Metaphysic zusammen mit Chris Umé gründete, nachdem der mit TikTok-Videos von einem KI-erzeugten Tom Cruise berühmt geworden war) und der TED-Host Chris Anderson, wie reibungslos mittlerweile Deep Fakes schon funktionieren – live während des Interviews. (Inzwischen warnt Graham vor den Möglichkeiten unkontrollierter KI.)

Und kürzlich unterhielt sich Jakob Steinschaden von der österreichischen Agentur Trending Topics mit ChatGPT, das inzwischen auch sprechen gelernt hat. Abgesehen von einem leichten amerikanischen Akzent im Deutschen, einigen seltsam gesetzten Pausen und hier und da ungewöhnlichen Betonungen ist die Natürlichkeit dieser synthetischen Sprachausgabe äußerst überzeugend.

Geradezu beängstigend überzeugend.

Stellen wir uns jetzt vor, dass dieses Interview nun auch noch mit einem »ge-deepfaketen« Gesicht per Video geführt und dabei nicht als KI-erzeugt gekennzeichnet würde – dann ist die Grenze zwischen »echt« und »unecht« nicht mehr bloß verschwommen.

Sondern verschwunden.

Fake-News sind ja schon längst ein erhebliches Problem, sehr massiv auch bei politischen Inhalten (Wahlbeeinflussung durch Cambridge Analytica auf Facebook, Kriegspropaganda seitens russischer Bot-Netze, Desinformationskampagnen zum Israel-Gaza-Krieg und vielem mehr). Je überzeugender diese Fake-News präsentiert werden, desto weniger werden Menschen noch erkennen können, was wahr ist – und es ist Allgemeinwissen, dass Menschen dazu neigen, Bildern, vor allem bewegten Bildern, weit eher zu glauben als dem geschriebenen Wort.

Eins steht fest: Die kommenden Monate und wenigen Jahre werden unser Verständnis von Wirklichkeit massiv herausfordern.

Oder besser gesagt: auf den Kopf stellen.


 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WERNERPRISE° — Das Blog.