Das Thema ist zu komplex um es umfassend erörtern zu können. Angefangen habe ich damit bereits in dem Blog-Artikel „Künstliche Intelligenz oder die Rechenleistung einer Maschine?“, jetzt geht es in die Tiefe und Breite.
Auslöser ist für mich eine Diskussion in der TV-Serie „Philosophisches Forum“ (2023), die von Konrad Paul Liessmann geleitet und von Barbara Stöckl moderiert wird.
Hier möchte ich einige Aspekte beleuchten. Wie immer sind auch meine eigenen Gedanken und Schlüsse integriert.
Vorweg: Ich bin selbst als Lektor an einer Fachhochschule vom Thema direkt betroffen, weil anzunehmen ist, dass meine Student:innen da und dort „KI“ benützen, um ihre Arbeiten zu verbessern oder gar erstellen zu lassen.
Ich bin mit diesem Problem natürlich nicht allein, muss aber für mich einen Weg finden. Die FH gibt drei Möglichkeiten vor:
1.) Verbieten. Dann ist es in dieser Lehrveranstaltung (LV) nicht erlaubt, KI zu verwenden.
Das ist problematisch, weil schwer zu beweisen. Konkret meine ich es zu erkennen, wenn Formulierungen so geschliffen sind, dass ich selbst zu staunen beginne, vor allem, wenn der jeweilige Student/die Studentin solche verbalen Fähigkeiten sonst nicht erbringt.
Konkret geht es aber darum, dass die Verwendung ja Schummeln bedeutet und den Versuch, sich ohne Leistung eine Note zu erschleichen.
Das finde ich nicht gut, weil ich sowieso keine Prüfungen mache und meinen Studierenden viele Freiheiten gebe, um den Aufwand zu reduzieren. Ich will aber nicht, dass sie ihn auf Null reduzieren, weil wozu soll die Lehrveranstaltung dann dienen?
Die FH hat hier einen pragmatischen Ansatz: Was sich sowieso nicht verbieten lässt, sollte auch nicht verboten werden.
Das ist zu diskutieren.
2.) Erlaubnis für bestimmte Teile einer LV
Dieser Ansatz ist ebenfalls interessant, vor allem wenn er noch durch eine Sonderleistung ergänzt wird: Die Studierenden müssen selbst über den Einsatz der KI reflektieren und erklären, was sie gebracht hat und was nicht.
Das ist bei uns zwar nicht vorgesehen, könnte aber eine gute Ergänzung sein.
Ach ja: Auch in dieser Variante ist es nicht erlaubt eine ganze Arbeit einfach durch die KI erstellen zu lassen.
3.) Erlaubnis, sofern der Einsatz dem Lernzweck dient
Das ist ja ganz nett, aber so wie ich meine Pappenheimer kenne, dient dann jeder Einsatz der KI halt dem Lernzweck.
In Variante 2+3 muss der Einsatz übrigens dokumentiert, also in Form von Quellenangabe offengelegt werden.
So weit, so gut. Spannend wird es dann, wenn Masterarbeiten von der KI erstellt werden. Das ist nämlich nicht leicht überprüfbar. Wir werden sehen, in welche Richtung sich das entwickelt.
Zurück zum Thema, in dem wir natürlich schon drin sind. Ich selbst habe KI noch nie verwendet, schreibe derzeit aber mit zwei Kolleginnen ein Buch, wo wir das lange diskutiert haben, übrigens mit dem Ergebnis, dass wir keinerlei Passagen durch KI erstellen lassen. Es geht auch ohne, wenngleich die Vorteile da und dort natürlich offensichtlich sind.
Die Sendung reißt gleich zu Beginn eine Vielzahl an Themen auf, die Bandbreite ist enorm, die Ebenen sind vielfältig.
Trotzdem sticht ein Punkt aus philosophischer Hinsicht gleich hervor: Was ist überhaupt Intelligenz? Es fällt uns schon schwer das beim Menschen zu definieren, in der Diskussion wird das Wort derzeit äußerst leichtfertig verwendet. Das ist wichtig, denn es gilt in gewisser Weise der alte Spruch „was liegt, das pickt“: Wenn sich der Begriff einmal durchgesetzt hat, ist er schwerer zu hinterfragen. Wenn wo Intelligenz draufsteht, dann wird sie wohl auch drin sein – so der Trugschluss.
Dabei rutschen wir sehr schnell in die Themen Bewusstsein und Moral, gemischt mit Entscheidungsfindung und in Folge mit Grenzsetzung: Was soll KI dürfen und was nicht?
Jetzt taucht sofort die Frage nach der Beherrschbarkeit auf und wird mit der uralten Diskussion um den Golem verknüpft: Ein geschaffenes Wesen, das sich selbständig macht. Dieser Begriff macht tendenziell Angst, weil wir die Gefahr vermuten, dass der Selbständige auch gerne autonom wäre, also von uns nicht mehr zu kontrollieren, und dass er in Folge irgendwann auf die Idee kommt uns zu kontrollieren.
In zahlreichen Filmen (z.B. Terminator) wurde dieses Thema durchgespielt.
Um die Kirche im Dorf zu lassen: Bisher ergeben seriöse Diskussionen stets, dass der Begriff „Künstliche Intelligenz“ als nicht zutreffend einzustufen ist. Es handelt sich um Rechenoperationen eines Computers, die uns aufgrund ihrer Komplexität, Geschwindigkeit und Erscheinungsform als intelligent erscheinen.
Daraus folgt aber, dass diese Rechner nur das berechnen können, was wir ihnen eingeben. Wenn wir in die Eingaben Fehler einbauen, arbeitet die KI mit diesen Fehlern und produziert selbst Fehler.
Die Gegner dieses Standpunktes behaupten, dass die Computer aus den Eingaben plus dem, was sie sich selbst aus dem Internet holen, lernfähig sind. Das suggeriert, dass sie von sich aus eine höhere Abstraktionsebene erreichen können und das ist zu diskutieren.
Dazu zwei Geschichten:
Das Militär hat einen dieser neuen Computer gekauft, der strategische Entscheidungen besonders clever und besser als Menschen treffen können soll. Der gesamte Generalstab steht gespannt vor dem Riesending (die Geschichte ist schon ein paar Jahrzehnte alt) und der Programmierer gibt die Frage ein:
„Offense or Defense?“
Die Maschine beginnt zu arbeiten, rattert, es vergehen einige Minuten, dann spuckt sie das Ergebnis aus:
„Yes“.
Die Militärs sind aufgeregt, mit der Antwort natürlich nicht zufrieden und der Programmierer gibt eine neue Frage ein:
„Yes what?“
Wieder arbeitet der Rechner, diesmal fast doppelt so lang. Dann spuckt er das neue Ergebnis aus:
„Yes, Sir!“
Computer können uns maximal spiegeln, nicht aber übertreffen – das wäre die Conclusio aus diesem alten Witz.
Emotionale oder soziale Intelligenz haben Computer sowieso nicht, ganz zu schweigen von einem Bewusstsein ihrer selbst. Die Diskutierenden sind sich auch einig, dass die KI nicht einmal das Potenzial dazu hat.
Maximal in der Logik können sie punkten, wobei sie diese auch nicht selbst finden, sondern ihrer Programmierung folgen.
Das können sie hervorragend, so wie viele andere Dinge – etwa im Bereich der Medizin können sie große Sprünge in der Diagnostik bewirken und dadurch Menschenleben retten.
Weil viele Menschen die Frage nach der wirklichen Intelligenz gar nicht stellen, weckt die KI sowohl Hoffnungen als auch Ängste – Liessmann betont, dass beides wohl übertrieben sei.
Es ist die Kombination aus sehr schneller Rechenleistung plus Big Data plus den programmierten Vorgängen (Algorithmen), die das Ergebnis aussehen lassen, als wäre eine Intelligenz dahinter.
Wahrscheinlich, weil die meisten Menschen nicht verstehen, was dahinter verborgen ist. Und wohl auch, weil die mediale Berichterstattung stets auf Sensationsgier aus ist und die Debatte entsprechend steuert.
Verloren geht dabei die wichtige Frage, wie wir das alles nützen wollen und sollen. Wir erleben, dass KI einfach „passiert“, dass ChatGPT von Menschen genützt wird, weil es da ist und von daheim am Laptop mit einem Knopfdruck gestartet und verwendet werden kann, kostenfrei oder mit sehr geringen Kosten.
Wir leben immer noch in einem „technikgeilen“ Zeitalter und erhoffen uns von der Technik Lösungen für Probleme, die wir selbst nicht anpacken wollen oder können. Jede Zeit schafft ihre Erlösungsphantasien samt Erlösern, die irgendwann in Mode kommen und nach einer gewissen Zeit von etwas anderem, neuem abgelöst werden: A new kid in town!
Das war lange die Religion, später kamen die Naturwissenschaften etwa in Form der Genetik, der Biotechnologie und noch einiges mehr. Dann tauchten die Computer auf und jetzt ist es gerade die KI, die als Revolution, als neues Zeitalter gefeiert wird. Das war aber bei der Dampfmaschine auch schon so. Und beim Computer.
Um zu verstehen, was da vorgeht, müssen wir der Spur des Geldes folgen – eh wie immer, sozusagen. Sie führt uns zu den großen Technologiekonzernen, die ein enormes Interesse daran haben, die Debatte zu steuern, wie die Politikwissenschafterin Barbara Prainsack erklärt: Sie treiben die Ethikdebatte gerne vor sich her, um der Frage nach der Regulierung zu entkommen, denn das ist wiederum ihre größte Angst: Dass wir uns die Freiheit nehmen, die KI zu kontrollieren.
Dahinter steckt das Prinzip, dass Konzerne (samt den dort tätigen Menschen an der Hierarchiespitze) stets auf eine Maximierung des Gewinns aus sind und sich dabei ungern stören lassen. Da die dahintersteckende Gier immer unendlich ist, setzen sie sich selbst keine Grenzen, auch wenn sie nach außen hin anders auftreten.
Wenn die Menschen über ihr Ordnungsprinzip (genannt „Staat“) eingreifen wollen, wirken ihnen starke Kräfte in vielfältiger Form entgegen, die stärksten sind die Bequemlichkeit und die Neugier.
Daher bekommen sie Spiele (und Brot in Form von Zucker, das ist aber eine andere Geschichte) und nützen diese intensiv bis pervers. Im Idealfall machen wir uns von diesen Spielen – wir alle kennen sie als „Handys“ – so abhängig, dass wir ohne nicht mehr sein wollen und können.
Wer mit offenen Augen durch die Welt geht (und nicht gerade auf sein Handy starrt), kann das jeden Tag fast überall gut erkennen.
Das führt zu Phänomenen, etwa dass Menschen rund um sich herum alles egal ist, wenn sie auf ihr Handy (Computer, Fernseher etc.) fokussiert sind. Da stört am Weltuntergang nur, dass dann das Internet nicht mehr geht und das „Device“ nicht mehr geladen werden kann. Immerhin, dann sind die Menschen bereit aufzublicken, letztlich aber auch nur, weil sie dazu gezwungen werden.
Wir sind hier sehr schnell in einer politischen Diskussion, denn es ist die Verantwortung der Politik, die wesentlichen Fragen des menschlichen Daseins zu behandeln und im Sinne des Wohles der Gesellschaft zu steuern.
Die Technologiekonzerne werden sich um Fragen des Umweltschutzes, der Demokratie oder der Menschenwürde nur kümmern, wenn sie ihnen schnellen Profit bringen oder wenn sie dazu gezwungen werden. Da es in unserer Welt aber letztlich nur mehr zwei Dinge gibt, die man gefahrlos zum Zwecke der Profitmaximierung ausbeuten kann, wird dies auch getan: Menschen (die meisten zumindest) und Natur können sich nicht oder nur schwer wehren, zumindest nicht schnell genug, um die kapitalistische Wirtschaft zu bewegen. Hier gilt der Spruch „the king said to the priest: you keep them stupid, i keep them poor”.
Daher wird die KI auch in diesem Sinne verwendet, wenn wir dies zulassen. Die erste Bastion, die derzeit gerade massiv angegriffen wird, ist die Demokratie. Sie erschwert die schon angesprochene Profitmaximierung. Die Diktatur ist für die Konzerne viel praktischer: Ich besteche den Diktator und bekomme alle Rechte und Freiheiten, um Mensch und Natur maximal ausbeuten zu können. Das lässt sich an vielen Orten bzw. in vielen Ländern unserer schönen Welt trefflich beobachten.
Peter Kirchschläger wirft die Frage des Vertrauens auf: Dieses müssten sich die Technologiekonzerne erst erarbeiten. Liessmann entgegnet, dass sie (Günter Anders folgend) bereits einen Vertrauensvorschuss bekommen haben, der enorm groß ist – wie das bei neuen Technologien immer geschieht.
Sie erwecken Neugier und Hoffnung und bekommen in Folge Vertrauen, das erstaunlich lange anhält, bevor es bei Missbrauch in sich zusammenstürzt.
Dazu kommt noch die Pikanterie, dass die entsprechenden Konzerne ja darauf hinarbeiten, genau das Vertrauen nicht mehr zu brauchen. Wenn ich von etwas abhängig bin, muss ich ihm nicht vertrauen, weil ich sowieso keine Wahl, keine andere Handlungsoption habe. Deswegen suchen ja auch alle Wirtschaftsunternehmen die Monopolstellung, weil man ihnen und ihren Produkten dann nicht mehr vertrauen muss. Den Schmäh mit der „gesunden Konkurrenz“ muss man ja nicht unbedingt glauben, finde ich. Sie ist nicht mehr als ein Feigenblatt.
Auf die Frage, wie denn die Konzerne das anstellen, antwortet Kirchschläger: Mit Manipulation. Ihr großer Hebel liegt in der Unmenge an Daten, die gesammelt und verwertet werden. Die meisten Menschen, die Geld haben, haben auch Internet und stellen ihre eigenen Daten den Technologiekonzernen dort gratis zur Verfügung. Sie schreien zwar ständig nach Datenschutz, handeln selbst aber gegenteilig, indem sie ihre privatesten Daten jedem geben, der sie haben will. Der Köder ist die Gratis-Benützung der Programme (Facebook, Instagram, TikTok etc.) plus der Mehrwert der Teilnahme an einer Gemeinschaft – deswegen tut es auch weh, wenn man „entfreundet“ wird. Aber auch hier gilt die Regel: Wenn du für etwas nichts bezahlen musst, dann bist du nicht Kunde, sondern Produkt.
Diese Daten werden dann dazu verwendet, um uns zu manipulieren, etwa in unserem Konsum- oder in unserem Wahlverhalten. Nicht ohne Grund steckt die Politik Unsummen in Social-Media-Kampagnen und ebenfalls nicht ohne Grund geben die meisten Konzerne Unsummen für Werbung im Internet aus.
Selbstverständlich kann man sich dagegen wehren, den totalen Nicht-Konsum schafft aber wohl niemand ohne zu verhungern. Das Leben als selbstversorgender Eremit in der einsamen Hütte im Wald ist zwar möglich, allerdings nur für ganz wenige Menschen.
Alle anderen, also fast alle, brauchen soziale Kontakte, sind von gesellschaftlichen Rahmenbedingungen (Haus, Supermarkt, Arbeitsplatz etc.) abhängig und müssen somit den gesellschaftlichen Normen folgen. Diese wiederum geben etwa vor, dass Menschen ein Smartphone brauchen. Ohne kann man heute vieles gar nicht mehr machen, das Leben wird sozusagen immer enger und schwieriger ohne Handy.
Im Gegenzug bietet es uns eine fast grenzenlose Welt der Unterhaltung, schon kleine Kinder bekommen heute von ihren Eltern ein Smartphone und werden damit ruhiggestellt. Die Gefahren werden nur höchst selten thematisiert und noch seltener diskutiert, möglicherweise weil auch die Politik am Smartphone hängt und diesen neuen Götzen nicht in der Kritik sehen will.
Eine nächste wichtige Frage ist die nach der Moral der KI. Kirchschläger führt aus, dass zur Moral die Freiheit gehört: Nur wer frei entscheiden kann, ist dazu fähig moralisch zu entscheiden. Ein Beispiel ist das autonom steuernde Fahrzeug. Wenn diesem einprogrammiert wird, den Fahrgast so schnell wie möglich von A nach B zu bringen, dann wird es diese Anweisung ausführen. Es gibt keine moralische Instanz, die es davon abhalten könnte. Das spielende Kind auf der Straße, das dabei überfahren wird, spielt für die so programmierte KI keine Rolle.
Wenn man einem Menschen diese Anweisung gibt, dann hat er das Potenzial diese moralisch abzuwägen und entsprechend zu handeln.
Der Informatiker Peter Reichel erläutert, dass Algorithmen nicht ethisch sind und daher auch nicht zur Verantwortung gezogen werden können. Das obliegt einzig und allein dem Käufer eines autonomen Fahrzeugs. Ethik und Moral sind keine binären, digitalen Systeme – wenn jemand einen Schaden verursacht, dann wird er/sie als Mensch das Gefühl haben, dass es ihm bzw. ihr leid tut. Ein Computer kann so etwas nicht und wird es nie können.
Der Philosoph und Soziologe Christian Dries ergänzt, dass wir derzeit auf dem Weg sind Computern bzw. dem Internet mehr zu vertrauen als Menschen. Diese Entwicklung sollte so nicht weitergehen, auch wenn Computer manche Dinge schneller und sauberer ausrechnen können. Urteilskraft im Kant´schen Sinne lässt sich aber auf Computersysteme nicht übertragen.
Das Problem läge darin, dass wir seit Jahrzehnten Computer in unser Leben integriert haben und inzwischen der Annahme sind, dass sie uns insofern überlegen sind, als wir durch unsere Körperlichkeit und Emotionen nicht so scharf und klar rechnen können – wir werden dadurch sozusagen zu fehlerhaften KI-Systemen. Das überträgt sich dann auf unsere Entscheidungskraft, die in Folge ebenfalls als fehlerhaft angesehen wird. Dann vertrauen wir in immer mehr Lebensbereichen dem Computer, was wiederum dazu führt, dass dieser immer mehr Macht und in Folge noch mehr Vertrauen bekommt.
Dries greift auch noch die ökologische Frage auf: Die KI ist unglaublich energieintensiv und schöpft Ressourcen ab, die wir dringend für andere, oft lebenserhaltende Systeme brauchen – was wiederum großteils arme Menschen trifft. Wir kennen diese Thematik schon von den Blockchain-Währungen wie Bitcoin, die inzwischen unfassbare Mengen an Energie verbrauchen, was jedoch nahezu nirgends diskutiert wird.
Liessmann betont, dass die KI gar nicht in der Lage ist zu verstehen, was „Mensch sein“ überhaupt bedeutet. Es ist nicht möglich einer KI die Regel „schädige keinen Menschen“ mitzugeben, weil sie nicht wissen kann, was „Mensch“ bedeutet und was „schädigen“ ist.
Wir sehen also Chancen und Risiken, die dringend notwendige Diskussion auf gesellschaftlicher und politischer Ebene fehlt jedoch. Somit bleibt auch offen, wie es weitergeht.