Künstliche Intelligenz oder die Rechenleistung einer Maschine?

Gleich vorweg meinen Dank an Christian Pohl, der mich auf Fehler bzw. fehlende Elemente in diesem Artikel hingewiesen und freundlicherweise auch gleich die Elemente mitgeliefert hat.

Die Ursprünge der „KI“ lassen sich mindestens 250 Jahre zurückverfolgen, als 1769 am kaiserlichen Hof von Maria Theresia eine Maschine vorgestellt wurde, die Menschen im Schach besiegen konnte. Es war eine Art Blechroboter, dem ein Turban aufgesetzt war – daher wurde er „Schachtürke“ genannt.
Es handelte sich aber um keine künstliche Intelligenz und genau genommen nicht einmal um einen Roboter, sondern um einen Schwindel – in der Maschine saß ein Mensch, der gut Schach spielen konnte.
Erst ein halbes Jahrhundert später flog der Betrug auf und seitdem spricht man davon, dass etwas „getürkt“ ist.
So lange halten sich Worte, aber das ist ein anderes Thema.

Bei der heutigen Faszination um die „AI“ (also „artificial intelligence“) oder „KI“ („künstliche Intelligenz) sitzen wir möglicherweise einem ähnlichen Schwindel auf: Wir glauben, dass analoges Denken (und in Folge Intelligenz – was auch immer das sein mag) durch digitale Rechenvorgänge nachgemacht werden kann.
Dazu müssen wir verstehen, was der Unterschied ist. Ich war 1984 der erste Jahrgang in unserem Gymnasium, der das Freifach „Informatik“ belegen durfte. Das war auch deswegen eine Herausforderung, weil wir dazu einen kleinen Computer brauchten, der eine Menge Geld kostete. Es war ein „Texas Instruments Pocket Computer“, etwa so groß wie ein heutiges Handy, mit einer einzigen LCD-Bildschirmzeile, wie ein Taschenrechner. Und er konnte „Basic“ programmieren – das war auch das, was wir lernten.
Vor allem aber lernten wir die Basis der Informatik, nämlich wie ein Computer funktioniert. Ohne jetzt hier auszuschweifen, die Grundlage von allem bildet bis heute das „digitale System“, also die Darstellung von allem im Schema „Null“ oder „Eins“. Diese 0/1-Kombination nennt man ein „Bit“ und 8 davon sind ein „Byte“. Ein Kilobyte sind allerdings nicht 1.000 Byte, sondern 1.024.
Ein Megabyte sind dann 1.048.576 Byte usw.
So haben wir es gelernt und das gilt bis heute.

Die Aufeinanderfolge von Bits ergibt eine Rechenoperation, also „drei Mal Null, dann zwei Mal Eins, dann zwei Mal Null“ bedeutet etwas anderes als „ein Mal Null, dann 4 Mal Eins“.
Ein Computer beherrscht verschiedene Rechenoperationen, etwa „wenn – dann“. Wenn er also „drei Mal Null“ vorgesetzt bekommt, macht er etwas. Wenn er aber „vier Mal Null“ vorgesetzt bekommt, macht er etwas anderes.
Die Rechenoperation lautet „Wenn du drei Mal Null liest, dann mach „A“, wenn du aber vier Mal Null liest, dann mach „B“.
Ich habe das mit einem kleinen, analogen Bild dargestellt.

Kugeln.jpg

Das ist ein „Kugelautomat“. Von oben rollt über die schräge Fläche eine Kugel runter und fällt in den Behälter. Das funktioniert bis zur dritten Kugel. Wenn eine vierte Kugel kommt, leitet sie der Automat in den nächsten Behälter.
Somit haben wir eine Wenn-Dann-Funktion: Wenn die vierte Kugel kommt, dann leite sie in den anderen Behälter.
So funktionieren Computer – ein wenig vereinfacht dargestellt, aber hoffentlich verständlich.
Das analoge Bild wurde von mir mit einer Digitalkamera fotografiert und dann auf den Computer überspielt.
Dort habe ich das Bild dann verkleinert, also „runtergerechnet“. Es setzt sich ja aus einer bestimmten Anzahl winziger Punkte zusammen, die entweder schwarz oder weiß sind – also Null oder Eins.
Der Computer nimmt das Bild und legt darüber ein Raster, also so etwas wie ein Gitter. Dann sieht er sich an, in welchem Rasterfeld es weiß ist und in welchem schwarz.
Er merkt sich den Wert für jedes Bild (dazu hat er einen Speicher) und stellt dies in einer Folge von Null-Eins-Werten dar: Im ersten Gitterfeld findet er einen schwarzen Punkt – und gibt diesem den Wert Null, im zweiten einen weißen, daher der Wert Eins, im dritten wiederum einen schwarzen, daher Null usw.
Die Folge der ersten drei Felder lautet also Null – Eins – Null (0-1-0).
Um das ganze Bild darstellen zu können, muss der Computer also nur eine ausreichend lange Aufeinanderfolge von Nullen und Einsen erzeugen, in diesem Fall 3,4 Megabyte. Wenn ich auf meinem Rechner die Info über das Bild ansehe, dann zeigt er mir das:

Bildinfo.png

Wenn ich das Bild jetzt herunterrechne, vergrößert der Computer in Wahrheit nur das Raster, weil ich für die Darstellung dieser Zeichnung einfach nicht so ein feines Raster brauche. Das nennt man dann die „Auflösung“.
Das obige Bild hat jetzt nur mehr 283 Kilobyte, also 281.634 Byte.
Das spart Speicherplatz und in Summe Energie, weil der Computer für jede Rechenoperation Strom braucht.
Wenn man solche Bilder vergrößert, sieht man das Raster. Das nennen wir dann „Pixel“. Wenn im Fernsehen – das heute ja digital ist – die Bilder auf einmal so seltsame Vierecke zeigen, dann nennen wir das „verpixelt“ und meinen damit, dass der Computer, der für die Erzeugung verantwortlich ist, nicht schnell genug rechnen kann oder die Informationen nicht bekommt, um die Bilder (Videos sind nichts anderes als viele Standbilder hintereinander) so darzustellen, dass wir sie im Kopf ins Analoge zurückrechnen können.

Ein paar Ergänzungen für Neugierige, die noch etwas tiefer in die Materie hineinschauen wollen: Die Bild-Logik funktioniert nur bei s/w-Bildern, bei Farbbildern kommt dann klarerweise zum Bit 0/1 pro Bildpunkt die Farbinformation dazu. Bei den ersten Computern war diese Farbinformation auf die Hälfte eines Bytes, also 4-Bit, beschränkt, was zu max. 16 (=2 hoch 4) Farben führte. Bei den späteren grafischen Benutzeroberflächen (z.B. erste Windows-Versionen 1.0 und 2.0) wurde schon ein ganzes Byte (=2 hoch 8) dafür verwendet, was zu 256 Farben führte, später 2 Byte (Windows 3.0) für 65536 Farben, heute haben wir generell einen Farbraum von 3 Byte, also 24-bit, mit über 16 Millionen Farben, was gemeinhin als True-Color bezeichnet wird.

Kommen wir zurück zur Künstlichen Intelligenz. Sie ist nichts anderes als genauso ein Rechner, wie ich ihn für dieses Bild verwende. Sie bekommt Informationen, die sie in digitale Null-Eins-Codes übersetzt, ähnlich wie das analoge Bild in ein Raster übersetzt wurde, in dem man dann Nullen und Einsen findet.
Die Künstliche Intelligenz ist ein Programm, das eine bestimmte Menge von Rechenoperationen wie unsere mit „Wenn-Dann“ beherrscht. Sie kann sehr viele Operationen mit sehr vielen Daten in sehr kurzer Zeit durchführen.

Sie kann aber nicht mehr als das.
Sie kann nicht denken, außer wir sehen das menschliche Denken als eine Art digitale Operation, die in einem Rechner namens Gehirn durchgeführt wird.
Wenn das so ist, dann müsste man wahrscheinlich bei einem Computerprogramm tatsächlich von Intelligenz sprechen.
Das wird aber nicht nur von mir bezweifelt, denn es fehlt noch eine wichtige Komponente, das „Verstehen“.
Hier streiten sich Philosophen, Neurowissenschafterinnen, Informatiker, Biologen, Psychologinnen und noch viele andere darum, was das wirklich ist.
Die KI-Hardliner meinen, das Verstehen ist nur eine Kombination von Daten, quasi das Ergebnis von Rechenoperationen: Wenn die vierte Kugel in das neue Gefäß fällt, dann hat der Computer sozusagen „verstanden“, dass in das erste Gefäß nur drei Kugeln passen.

Ganz so einfach ist es natürlich nicht, aber letztlich bleibt immer die Frage: Ist unsere Welt in Wahrheit digital, also nichts anderes als eine unfassbar große Anzahl an Nullen und Einsen?

Es gibt Zweifel an der Begrenztheit der KI, wie ich sie eben dargestellt habe. Dabei ist wichtig anzumerken, dass wir wahrscheinlich erst am Anfang einer interessanten Entwicklung stehen und auch die besten Expertinnen und Experten noch nicht wissen, in welche Richtung sich die KI (samt allem, was daraus gemacht wird) entwickelt.
Möglicherweise entsteht hier doch mehr als ein einfaches Computerprogramm und es ist zu früh zu behaupten, dass wir die Wahrheit bereits kennen.

Sehen wir uns die Elemente an, die seitens KI entwickelt wurden:

Lernfähigkeit:
KI kann aus Daten lernen, ohne dass jeder Einzelfall manuell programmiert werden muss. Zum Beispiel:
Klassisches Programm: „Wenn E-Mail Betreff enthält ‚Rechnung‘, dann verschiebe in Ordner X.“
KI: „Ich habe Millionen E-Mails gesehen und erkenne, dass dies mit hoher Wahrscheinlichkeit eine Rechnung ist.“

Generalisierung:
KI kann neue, unbekannte Situationen behandeln, wenn sie genügend ähnliche Muster zuvor gelernt hat.

Verarbeitung unstrukturierter Daten:
KI kann Bilder, Sprache oder Texte interpretieren – etwas, das für klassische Programme kaum möglich ist.

Probabilistische Entscheidungen:
Statt Ja/Nein entscheidet KI oft auf Basis von Wahrscheinlichkeiten – z.?B. „Zu 87?% ist dies ein Hund.“

Skalierbarkeit & Anpassungsfähigkeit:
Ein KI-Modell lässt sich für viele Aufgaben anpassen (Transfer Learning, Fine-Tuning) – von Chatbots bis zur medizinischen Diagnostik.

Das alles kann die KI, weil sie in der Lage ist, zusätzlich zu ihren programmierten Algorithmen statistische Daten und Modelle zu verwenden, um Muster zu erkennen. Diese Muster dienen dann als Vorlage für den „Lernprozess“, dh. zukünftige Entscheidungen (Wenn-Dann) werden aufgrund dieser gelernten Muster angepasst – was einer Verhaltensänderung entsprechen kann.
Die Entscheidungen sind daher nicht völlig deterministisch, sondern hängen vielmehr vom Trainingsprozess und der damit errechneten Wahrscheinlichkeiten ab.

An dieser Stelle vermuten Fachleute, dass es sinnvoll ist, von einer gewissen Intelligenz zu sprechen.
Selbst Philosophen, die gerne das letzte Wort haben, müssen hier eingestehen, dass sie es einfach nicht wissen.
Es zahlt sich also sicher aus, an der Diskussion dranzubleiben, vor allem, wenn es um die Fragen nach Bewusstsein geht – übrigens die letzte, alles entscheidende Frage in der ganz großen Diskussion.
Ich möchte auch hier nur ein Element herausnehmen, die Lernfähigkeit.
Dazu sehen wir uns obigen Satz noch einmal an:

KI: „Ich habe Millionen E-Mails gesehen und erkenne, dass dies mit hoher Wahrscheinlichkeit eine Rechnung ist.“

Wahrscheinlichkeitsberechnung ist ein Programmteil, das konnten Computer schon in recht frühen Phasen ihrer Entwicklung. Spannender ist der Begriff „erkennen“, denn hier müssen wir uns genauer ansehen, was das bedeutet.
Wenn ich erkenne, dass das, was mir auf der Straße entgegenkommt, ein Auto ist, dann ist das eine Art Rechenoperation in meinem Gehirn: Es hat abgespeichert, dass bestimmte Formen den Begriff „Auto“ bekommen. Wenn ich jetzt ein Auto sehe, vergleicht das Gehirn die Form mit Formen, die es kennt und ordnet diese Form zu. Das ist für uns lebenswichtig, denn wir müssen Formen, die wir erkennen, einordnen können, um damit umgehen zu können.
Die ursprüngliche Rechenoperation „Wenn diese Form, dann Auto“ muss aber programmiert werden – sowohl im Computer, wie auch im Gehirn. Im Gehirn funktioniert das übrigens indem uns irgendwann gesagt wird, dass diese Form „Auto“ genannt wird.
Bis daher ist das eigentlich noch recht banal und der Unterschied zwischen „intelligenten Menschen“ und „unintelligenten Rechnern“ noch nicht erkennbar.
Spannender wird es, wenn wir darüber hinausdenken: Was bedeuten Autos für Menschen? Wir wissen etwa, dass sie als Statussymbole verwendet werden, um Emotionen auszulösen. Diese Funktion fließt in die Entwicklung von Autos mit ein, die dann eine „aggressive Front“ bekommen, wo etwa die Scheinwerfer wie Augen gestaltet werden, die zu Sehschlitzen verformt sind, weil wir diese Form von aggressiven Gesichtsausdrücken kennen.
Kann das die KI auch „erkennen“ und wenn ja, was macht sie draus?

Ich glaube, dass ihr diese Erkennungsoperationen programmiert werden müssen und dass sie dies nicht von selbst entwickeln wird. Aber wissen kann ich das nicht.
Bleibt die KI ein Computerprogramm, das einfach nur besser, weil komplexer ist?
Und die Frage nach Bewusstsein ist damit natürlich noch nicht einmal angeschnitten. Wir wissen ja nicht einmal, was es beim Menschen genau ist, wie es funktioniert und wie es sich entwickelt hat. Wie sollen wir dann wissen, ob es sich in Computern bzw. Netzwerken entwickelt?

Kommen wir zurück zur Ausgangsfrage.
Ich bin der Ansicht, dass alle Menschen, die über Künstliche Intelligenz mitdiskutieren, zuerst einen Test machen sollten, ob sie wissen, wie Computer überhaupt funktionieren. Zumindest die Grundfunktionen sollten bekannt sein.
Sie müssen nicht wissen, wie Quantenphysik funktioniert und auch nicht mit der Diskussion vertraut sein, ob unser Gehirn nicht in Wahrheit ein Quantencomputer ist. Aber was ein Bit und ein Byte und eine Rechenoperation ist, sollten sie wissen.
Sonst passiert nämlich das, was wir derzeit in den Sozialen Medien sehen können. Menschen lassen sich von KI-Bildern oder auch von ChatGPT-Texten in die Irre führen. Derzeit ist das noch recht einfach erkennbar, denn die KI-Bilder weisen noch sichtbare Fehler auf, das wird sich aber im Laufe der nächsten Jahre ändern.
Es ist aber erschreckend, wie viele Menschen heute schon glauben, dass KI-Bilder echte Fotos sind, auch wenn sie wirklich schlecht gemacht sind. (Am besten lässt sich so ein Bild übrigens erkennen, wenn man die Hände der darauf dargestellten Menschen ansieht. Das kann die KI meistens noch nicht gut errechnen.)

Es wirkt fast so, als wünschen sich die Menschen getäuscht zu werden. Das hat ja eine lange Tradition, wenn ich an das „Heumarktcatchen“ denke, heute besser bekannt unter dem amerikanischen Namen „Wrestling“, wo Menschen sich bewusst täuschen lassen. Sie vergessen während der Kämpfe gerne, dass diese nicht echt sind. Ist es die erwünschte Ablenkung von ihrem realen Leben? Auch Filme mit Schauspielern stellen kein reales Leben dar, sondern eine Art künstliche Abbildung davon, verzerrt, idealisiert, geschönt.
Mich erinnert das an die Aussage einer älteren Frau, die über ihr Leben befragt wurde und auf die Frage nach ihren Hobbies antwortete „Fernschauen“. Auf die Frage, was sie gerne fernschaut, meinte sie „Serien“ und auf die Frage, welche Serien: „Reich und schön“.
Sie selbst war arm und schiach. Menschen (mich natürlich eingeschlossen) lassen sich gerne in „unechte Welten“ verführen, ganze Unterhaltungsindustrien leben nur davon. Ob das „ferne Welten“ in Science-Fiction-Filmen sind oder kleine Videos am Handy – das ist alles die gleiche Masche.

Das alles könnte man jetzt als nette Freizeitbeschäftigung einstufen, wenn nicht handfeste Gefahren davon ausgehen würden.
Schon heute werden im Internet gefälschte Bilder und Videos verbreitet, um Menschen dadurch Schaden zuzufügen. Fotos wurden auch früher schon gefälscht, das war aber nicht einfach und nur mit entsprechender Ausrüstung zu schaffen. Durch das Computerprogramm Photoshop hat sich hier schon einiges verändert, aber auch das musste man noch bedienen können.
Heute gebe ich Befehle in ein Programm ein und lasse mir ein Bild vom Computer erstellen. Das kann jeder Mensch mit einem Handy und einer App vom Wohnzimmer aus.
Ich bin übrigens der Meinung, dass es eine Kennzeichnungspflicht für KI-Bilder geben sollte. „AI-generated“ oder so ähnlich, mit einem Symbol ähnlich dem © für Copyright.

Jetzt stellt sich die Frage nach sozialer Korrektur. Es gibt dazu einen alten Spruch: „Es gab immer schon in jedem Dorf einen Trottel, nur heute hat er Internet.“
Wenn der Trottel im Dorf etwas gesagt hat, seine Meinung verbreiten wollte, dann war allen klar: Das ist ein Trottel. (Das Wort stammt übrigens von „trotten“, was langsam gehen heißt. Gemeint war das Herumwanken, nicht gerade gehen können, was oft mit nicht gerade denken können einhergeht.)
Wenn eine relevante Mehrheit etwas gesagt hat bzw. eine Meinung gebildet hat, dann wussten alle, dass sie sich diese Meinung anhören bzw. auch sich ihr anschließen sollten. Die Quantität erzeugte sozusagen Wahrheit.
Heute treffen tausende Trottel im Internet zusammen und entwickeln eine Meinung. Davon lassen sich viele Menschen täuschen, weil was viele sagen, ist ja laut ihrer Erfahrung die Wahrheit.
„Scheiße schmeckt gut – Milliarden Fliegen können sich nicht irren“ heißt der Spruch, der diesen Fehler aufdecken soll.
Er war in der Geschichte schon oft ein Thema, denn auch früher hatte die Mehrheit nicht unbedingt Recht. Für Sokrates hat das eine wichtige Rolle gespielt, denn er wurde von der Mehrheit der Volksversammlung zum Tod durch den Schierlingsbecher verurteilt – übrigens wegen Aufhetzung der Jugend (und noch ein paar anderer Delikte).
Die Abstimmung ging recht knapp aus, was Sokrates dazu veranlasste, das Urteil zu akzeptieren und den Schierlingsbecher zu trinken, seiner Nachwelt aber eine Botschaft zu hinterlassen: Er empfiehlt, die Suche nach der Wahrheit nicht durch die Suche nach der Mehrheit zu ersetzen.

Das ist auch für unsere Diskussion über KI ein wichtiges Thema, denn wenn die Computerprogramme ihre Entscheidungen aufgrund von Wahrscheinlichkeiten treffen (siehe obiges Element der „probabilistischen Entscheidungen“), dann treffen sie diese aufgrund von Quantitäten (87 ist größer als 18) und nicht aufgrund dahinterliegender Qualitäten.
Ob sie diese als solche erkennen können, ist die nächste spannende Diskussion. Sie ist praxisrelevant, denn es gibt immer mehr Menschen, die dem KI-Programm „ChatGPT“ eine Frage stellen, wenn sie etwas nicht wissen, und die Antwort als Wahrheit einstufen. Das ist aus mehreren Gründen bedenklich, etwa weil es für diese Antworten keinerlei Quellenangaben mehr gibt. Das KI-Programm durchsucht das Internet und stellt aus den dort gefundenen Informationen eine Antwort zusammen. Die ist manchmal gut und manchmal schlecht.
Sich darauf zu verlassen ist auf jeden Fall schlecht.

Menschen treffen für wichtige Entscheidungen zusammen und diskutieren diese. Dabei versuchen sie die Wahrheit zu finden, was oft eine schwierige Aufgabe ist. Die Meinungen der Trottel können aber meistens recht schnell entdeckt und dann richtig eingestuft werden, auch weil es pro Dorf im Regelfall nicht allzu viele davon gibt.

Im Internet bzw. den sozialen Medien ist das anders, da gibt es diese Korrektive gar nicht, spätestens in geschlossenen Gruppen entsteht die dort herrschende Wahrheit aufgrund der Meinungen (und Interessen, oft auch Emotionen wie Ängsten) von Trotteln.
Wir sprechen in diesem Fall von sogenannten „Blasen“, in denen Menschen agieren und denken und wo die Realität außerhalb der Blase keine Rolle mehr spielt.
Wenn die Menschen aus so einer Blase dann geballt auf die Realität, sprich die soziale Öffentlichkeit losgelassen werden, gibt es Probleme.

Punkto KI stellt sich hier die Frage, ob sie auch außerhalb ihrer „programmierten Blase“ existieren kann und was das bedeutet. Kann sie die Meinung von Trotteln erkennen, wenn diese eine Mehrheit bilden? Ist ihr dann klar, dass es sich nicht um die Wahrheit handelt, auch wenn die Wahrscheinlichkeit hoch ist?
Gut funktionierende soziale Gefüge können das. Ein gutes Beispiel ist der Hofnarr. Dieser hatte am Hof Narrenfreiheit, d.h. er konnte dem Herrscher widersprechen, ohne dass seine Meinung (und er selbst) sofort eliminiert wurde.
Das war immer dann wichtig, wenn die Mehrheit falsch lag und es daher ein Korrektiv brauchte.
Welches qualitative Korrektiv hat die KI?
Das ist vor allem dann wichtig, wenn sie Entscheidungen trifft, nach denen gehandelt wird. Können Kampfdrohnen gute von schlechten Menschen unterscheiden? Und wenn ja, auf welcher Basis?
Es kommt wohl darauf an, wie sie programmiert wurden. Sobald wir aber Entscheidungen zulassen, die nicht mehr auf der direkten Programmierung basieren, sondern auf Schlüssen, die von der KI der Drohne selbst gezogen wurden, wird es heikel.

Dies ist nur ein Aufriss eines großen und komplexen Themas, mit dem wir uns beschäftigen müssen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert