Wo liegen die Grenzen der künstlichen Intelligenz?

Wenn wir die künstliche Intelligenz messen wollen, dann sind wir zurückgeworfen auf die menschliche Intelligenz. Diese wird durch den Intelligenzquotienten nur unzureichend abgebildet.

Der Maßstab

Ich wähle einen anderen Maßstab. Ich frage danach, wie es mit dem Aufgabenlösen, dem Problemenlösen und dem Erfinden steht. Das ist eine grobe Skala, geordnet nach steigendem Anspruch.

Bei einer Aufgabe sind das Ziel und auch die Mittel zur Erreichung dieses Ziels bekannt. Beispiel: Aus einem 8-Liter-Krug voller Wein sind 4 Liter abzufüllen. Verfügbar sind aber zusätzlich nur ein 3-Liter-Krug und ein 5-Liter-Krug.

Auch bei einem Problem kennen wir das Ziel. Aber es gibt Hindernisse auf dem Weg zum Ziel. Beispiel: Ein gut durchmischter Kartenstapel mit 52 Karten und vier Assen wird nacheinander Karte für Karte aufgedeckt. Wie viele Karten muss man im Mittel aufdecken, bis das erste Ass kommt?

Eine Erfindung tritt schlagartig ins Bewusstsein, gefolgt von der Entdeckung, welches Problem dadurch gelöst wird. Beispiel: Telefon. Gray und Bell haben rein zufällig die Lösung für ein Problem gefunden, das sie eigentlich gar nicht hatten.

Das Belohnungssystem

Aufgaben und Probleme erzeugen Spannung. Der Lösungsprozess ist mühsam und anstrengend. Was bewegt uns dazu diese Mühsal auf uns zu nehmen? Dahinter steckt unser körpereigenes Belohnungssystem. Je größer die Anstrengungen waren, umso größer ist die Belohnung: Der Heureka-Moment geht mit der Ausschüttung von Glückshormonen einher. Und je größer die Mühsal war, desto größer ist schließlich das Glücksgefühl.

Beim Erfinden scheint dieses Belohnungssystem zu versagen. Als Elisha Gray erkannte, dass er mit seinen Apparaturen telefonieren kann, hat das den Profi zunächst nicht weiter interessiert. Er war ja auf der Suche nach dem Mehrfachtelegrafen, genauso wie Alexander Graham Bell. Dieselbe Beobachtung veranlasste den Spracherlehrer und Hobbyerfinder Bell, die Sache intensiv weiter zu verfolgen. So gewann er das Wettrennen um das Telefonpatent.

Viele Erfindungen haben eine Vorgeschichte, in der irgendetwas schief gelaufen ist. Gern zitiertes Beispiel ist die Entdeckung des Penicillins. Das nenne ich die schöpferische Kraft des Fehlers.

Was versprechen die Vorreiter der künstlichen Intelligenz?

Ich beginne mit einer Selbstauskunft von ChatGPT, dem neuesten Schrei auf dem Gebiet der KI:

Als künstliche Intelligenz hat ChatGPT mehrere bemerkenswerte schöpferische Leistungen erbracht…
Es ist jedoch wichtig zu beachten, dass ChatGPT eine künstliche Intelligenz ist und seine kreativen Leistungen auf der Verarbeitung großer Datenmengen und statistischer Muster basieren. Obwohl seine Texte oft beeindruckend kreativ erscheinen können, fehlt ihm das eigentliche Verständnis oder Bewusstsein, das bei menschlicher Kreativität vorhanden ist. Die Ergebnisse können daher manchmal unvorhersehbar oder inkonsistent sein.

Vor etwa 20 Jahren war noch mehr Zuversicht zu spüren. Der große Moment, in dem die Maschinen den Menschen an Intelligenz überflügeln und die kulturelle Evolution übernehmen, Singularität genannt, wurde für 2023, also für heute vorhergesagt. Zu merken ist davon nichts. Die Erwartungen sind erneut in die Zukunft verschoben.

Werden die lernenden Maschinen den Durchbruch bringen? Was den Stand der Dinge angeht, orientiere ich mich am Buch The Master Algorithm von Pedro Domingos.

Maschinelles Lernen

Beim maschinellen Lernen unterscheidet Domingos fünf Schulen:

1. Die Symbolisten testen viele Lösungsansätze mit rein logischen Mitteln auf Tauglichkeit. Typische Anwendung: Toxische Molekülstrukturen lassen auf unerwünschte Nebenwirkungen von Medikamenten schließen.

2. Die Konnektionisten arbeiten mit neuronalen Netzen. In der Trainingsphase werden deren Verknüpfungsparameter mittels Versuch-und-Irrtum oder Backpropagation solange variiert, bis das Netz das gewünschte Verhalten zeigt. Typische Anwendung: Mustererkennung.

3. Die Evolutionisten lassen verschiedene Lösungsvorschläge miteinander konkurrieren. Wer dem vorgegebenen Ziel näher kommt als andere, der überlebt im Selektionsprozesss. Durch Mutationen und Crossing-Over werden immer neue Lösungsvarianten erzeugt. Typische Anwendung: Spamfilter.

4. Die Bayesianer reduzieren die Ungewissheit über einen Sachverhalt, indem sie Schritt für Schritt weitere Erkenntnisse einbeziehen. Das gelingt mit der Formel von Bayes. Typische Anwendung: medizinische Diagnosen.

5. Die Analogisierer suchen nach Ähnlichkeiten zwischen Situationen. Daraus schließen Sie, dass ihnen dieselbe Ursache zugrunde liegen könne.

6 ChatGPT lässt sich, soweit ich sehen kann, keiner der fünf Schulen zuordnen. Der Name sagt, womit wir es zu tun haben: Generative vortrainierte Transformatoren. Auf der Basis eines riesigen Textkorpus werden in der Trainingsphase statistische Zusammenhänge für Satzbestandteile ermittelt. Auf Basis dieser Statistik erstellt das Programm themenbezogene Texte, die wie von Menschen gemacht und urheberrechtlich relevant erscheinen.

Was der KI (noch) fehlt

Die Systeme der Schulen 1 bis 5 lernen alle unter der Bedingung strikter Zielvorgaben. Vielleicht befähigt sie das dazu, Aufgaben und Probleme zu lösen. Der Mensch kann mehr: Entdecken und Erfinden des vollständig Neuen.

Die Texte von ChatGPT mögen neu sein, aber sie bewegen sich vollständig im Rahmen des vorab erfassten Textkorpus. Auf diese Weise können völlig neue Ideen nicht entstehen.

Fazit: Die KI ist zu bewunderungswürdigen Intelligenzleistungen fähig. Aber letztlich bleibt das maschinelle Denken in der vom Programmierer vorgegebenen Box. Erfindungen bringt es nicht zustande. Genau dort liegt derzeit die Grenze der KI. Was die Zukunft bringt: Wer weiß das schon?

Wie weiter?

Die großartigen Leistungen heutiger KI-Systeme und das hohe Entwicklungstempo lassen zukünftig wohl noch mehr übermenschliche Intelligenzleistungen erwarten. (Bereits Zuses Computer konnte 1941 schneller addieren und multiplizieren als jeder Mensch.) Jedoch: Die Singularität, also der Zeitpunkt, an dem die Maschine den Menschen an Intelligenz überflügeln und die kulturelle Evolution übernehmen, ist vermutlich noch eine Weile hin.

Mathematik, Physik und Chemie vom Lehrplan zu streichen, ist jedenfalls keine gute Idee, auch wenn Computer viele Arbeiten auf diesen Gebieten viel effizienter erledigen als der Mensch. Das Erfinden scheint auch in naher Zukunft nicht in den Kompetenzbereich der KI zu fallen. Für die richtige Einordnung einer Entdeckung benötigt der Mensch viel Wissen und die Fähigkeit, auch verdeckte
Analogien zu erkennen.

Übrigens: Man muss im Mittel 10,6 (53/5) Karten aufdecken, bis das erste Ass erscheint und nicht etwa 13 (52/4), wie Chat GPT am 26.7.23 behauptet hat. Die Antwort auf das Weinabfüllrätsel beginnt die Quasselstrippe so:

Schritt 1: Den 8-Liter-Krug mit Wein füllen. Schritt 2: Den Wein aus dem 8-Liter-Krug in den 5-Liter-Krug umfüllen (5 Liter verbleiben im 8-Liter-Krug)…

Als Spaß kann das gerade noch durchgehen.

Literaturhinweise

Pedro Domingos: The Master Algorithm. 2015

Timm Grams: Klüger irren – Denkfallen vermeiden mit System. 2016/2020

Zbigniew & Matthew Michalewicz: Puzzle-Based Learning. An introduction to critical thinking, mathematics, and problem solving. 2008

Dieser Beitrag wurde unter Bildungswesen, Denksport, Heuristik, Korrelation und Kausalität, Problemlösen, Wahrscheinlichkeitsrechnung veröffentlicht. Setze ein Lesezeichen auf den Permalink.

5 Antworten zu Wo liegen die Grenzen der künstlichen Intelligenz?

  1. Elektroniker sagt:

    @ Timm Grams
    Wo liegen die Grenzen der künstlichen Intelligenz?

    Zitat: „Maschinelles Lernen
    Beim maschinellen Lernen unterscheidet Domingos fünf Schulen:

    ……

    6 ChatGPT lässt sich, soweit ich sehen kann, keiner der fünf Schulen zuordnen.“

    Ich habe schon öfter erwähnt, dass die spezielle Leistung dieses Programms auf einen besonderen Algorithmus den ein Tschechischer Informatiker entwickelt hat, zurückgehen könnte. Allerdings dürfte der im Google Konzern gearbeitet haben? Es könnte auch um „Parallelentwicklungen“ gehen?

    Im Blog von Herrn J. Konecny (scilogs) habe ich davon gelesen und auch im Internet recht Interessantes erfahren.

    Soweit ich dass verstanden habe, geht es um die „assoziative Nähe“ von Begrifflichkeiten, abhängig vom „Psychotyp“. Das ist besonders interessant in der Psychologie. (Testverfahren).

    Ganz begeistert über den Algorithmus habe ich noch im o.a. Blog vor ungefähr 2 Jahren diskutiert.

    Leider habe ich keinen Zugang mehr, finde einfach keine passenden Stichworte mehr um nochmals den „Faden“ aufnehmen zu können.

    Vielleicht wäre dieser Ansatz auch für Ihre Untersuchungen interessant um ChatGPT richtig einordnen zu können?

  2. Timm Grams sagt:

    Die Diskussion zu diesem Artikel wurde hauptsächlich im Mathematik & Physik Forum auf Facebook geführt.

    Zu den Grenzen der künstlichen Intelligenz fällt mir noch Folgendes ein:

    1. Was wir Intelligenz nennen, ist Erscheinung eines hochkomplexen kohlenstoffbasierten Systems, dessen Evolution ca. 3,8 Milliarden Jahre in Anspruch nahm. Sie äußert sich unter anderem in der Sprache.

    2. Künstliche Intelligenz ist die siliziumbasierte Nachahmung dieser biologischen Intelligenz. Ein Teilgebiet ist die Spracherkennung.

    3. Zu Beginn versuchte man es mit der Nachbildung natürlicher Mechanismen. Linguisten waren gefragte Fachleute.

    4. Anfangs der 90er Jahre zeigte sich, dass man mit rein statistischen Methoden und Modellen viel schneller vorankommt. Ich erinnere mich an eine Zusammenarbeit mit IBM. Dort favorisierte man die Hidden Markov Models und hatte damit sehr großen Erfolg.

    Das heißt aber, dass man gar nicht mehr versucht, das Wesen der Intelligenzleistungen zu erkunden. Man begnügt sich mit deren Oberfläche.

    Ich erwarte, dass die KI-Systeme zukünftig sehr bewunderungswürdige und intelligent wirkende Leistungen erbringen werden, dass sie damit aber der natürlichen Intelligenz und dem Bewusstsein nicht näher kommen. Ich sehe immer noch das Bild des Luftschiffers vor mir, der nach dem Monde trachtet, ihn aber nicht erreichen kann.

  3. John solar sagt:

    Wenn dieser Beitrag vom 1.April wäre hätte ich gesagt 🤣🤣🤣🤣

    sie analysieren mit KI das wohlbefinden von Schweinen

    is das jetzt wie homöopathie????

    https://youtu.be/wZJuDpoecDo?si=i7VG8TkbsWkqYbDm

    • Timm Grams sagt:

      Mit dem Schlüsselwort KI will man wohl verhindern, dass die Studie versehentlich ernst genommen wird. Weitere Beispiele für lustige Forschung habe ich im Artikel Sex ist gesund aufgespießt.

    • John Solar sagt:

      Aber von Morpheus (Informatiker) halte ich sehr viel:

      Und er nutzt die LLM zur Code Revision und so wie er schwärmt wohl erfolgreich und ich nutze das Zeug ja auch

      Hier der allgemeine Vortrag, er referenziert dort auch auf ein technisches Video, so groß das Shithole YouTube ist, es gibt dort gute Perlen, nur finden muss man die?

      https://youtu.be/qMo-Upk6Y-Y?si=SxLMJ_gjCd0HbCdU

      Möge es zu ihrem Amüsement beitragen und süße Stunden am Handy beschweren 🙋‍♂️🙋‍♂️🙋‍♂️

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Optionally add an image (JPEG only)