ChatGPT: ein eloquenter Hohlschwätzer

Wer kennt sie nicht, diese Typen, die eloquent reden und schreiben können und dabei aber nur sinnleeres Zeug produzieren. Unter den Hobby-Philosophen ist ihre Dichte besonders hoch. Da sie kaum Gehirnschmalz nötig haben, war es nur eine Frage der Zeit, bis diese Hohlschwätzerei automatisiert wird. Jetzt ist mit ChatGPT der Durchbruch gelungen. Hier im Blog hatten wir im Zusammenhang mit dem Ziegenproblem schon eine Kostprobe.

Es ist geradezu ein Hauptmerkmal der neuen AI-Software ChatGPT, dass sie die Quellen der von ihr formulierten Aussagen unsichtbar macht. Da sie nur auf aktuell bekannte Fakten und Pseudofakten zugreifen kann, sind ihre Aussagen ziemlich wertlos, solange man nicht weiß woher sie kommen. Und wer braucht schon Smalltalk mit einem Computer? Davon, dass die Urheber leer ausgehen, will ich gar nicht erst anfangen.

Aber das ist offenbar der Zug der Zeit. Ich stelle einen unaufhaltsamen Trend zur Oberfläche fest. Jedermann kann heute öffentlich vor sich hin brabbeln. Das Internet macht die nahezu grenzenlose Ausbreitung von Geschwätz möglich. Ein Beispiel aus dem Hoppla!-Blog:

So wollten knappe 70% der Einwohner des Donbass in der Ukraine verweilen

Da fragt man sich: Wer hat diese Daten wann, wo, wie und unter welchen Umständen erhoben. Ohne Quellenangabe ist diese Aussage nichts wert. Sie kann noch nicht einmal als Meinung durchgehen. Einen Höhepunkt des Trends zur Oberfläche bildet der geschwätzige Schwarm.

Zurück zum automatisierten Schwätzer ChatGPT. Ich sehe nämlich auch einen Nutzen in dieser künstlichen Intelligenz: Mit ihr können wir trainieren, klug klingende Aussagen als Quatsch zu entlarven. Ich bleibe beim bereits angesprochenen Ziegenproblem.

Frage: „Ziegenproblem. Wechseln?“

ChatGPT:

Das Ziegenproblem ist ein bekanntes Gedankenexperiment in der Philosophie und der Logik. Es geht darum, dass ein Mann auf einer Insel mit zwei Türen ist, hinter einer davon befindet sich eine Ziege und hinter der anderen ein Auto. Der Mann weiß nicht, hinter welcher Tür sich welches Objekt befindet. Nachdem er eine Tür geöffnet hat und die Ziege gesehen hat, muss er entscheiden, ob er die Tür mit der Ziege oder die andere Tür wechselt. Dieses Problem veranschaulicht die Notwendigkeit, eine Entscheidung zu treffen, obwohl das Ergebnis ungewiss ist, und dient als Beispiel für die Überlegungen, die Menschen bei Entscheidungen unter Unsicherheit anstellen. Es ist ein bekanntes Beispiel für das sogenannte Wahrscheinlichkeits-Paradoxon.

Offenbar hat ChatGPT noch nicht einmal die Oberfläche des Problems angekratzt. Interessant ist eigentlich nur, dass hier von einem Wahrscheinlichkeits-Paradoxon gesprochen wird. Ein solches ist mir im Zusammenhang mit dem Ziegenproblem nicht begegnet, sondern nur unverstandene Wahrscheinlichkeitsrechnung. Also frage ich: „Was ist das Wahrscheinlichkeits-Paradoxon?“

ChatGPT:

Das Wahrscheinlichkeits-Paradoxon bezieht sich auf eine scheinbare Inkonsistenz oder Ungereimtheit in der Wahrscheinlichkeitsrechnung. Es kann passieren, dass zwei Ereignisse mit den gleichen Wahrscheinlichkeiten stattfinden, aber die Wahrscheinlichkeiten ihrer Kombination unerwartet sind.

Wenn man die Wahrscheinlichkeiten der Ereignisse A und B kennt, dann weiß man noch nichts über die Wahrscheinlichkeit des Verbundereignisses AB. Was soll daran paradox sein? ChatGPT hat Quatsch geliefert. Das war zu entdecken.

Dieser Beitrag wurde unter Bildungswesen, Schule und Hochschule, Skeptizismus, Wissenschaft und Pseudowissenschaft veröffentlicht. Setze ein Lesezeichen auf den Permalink.

45 Antworten zu ChatGPT: ein eloquenter Hohlschwätzer

  1. Realo sagt:

    ChatGPT: ein eloquenter Hohlschwätzer

    Das sehe ich genau so und werden auch die Entwickler kaum anders sehen. Ich meine, bei derartigen Systemen geht es derzeit um 2 Aspekte. Einerseits breiten Schichten plausible aber oberflächliche KI Systeme vorzustellen und Daten für das Training zu gewinnen. Es geht nicht um „wirkliche Intelligenzleistungen“, die bleibt derzeit spezialisierten „Experten Systemen“ vorbehalten.

    Zitat: „Es ist geradezu ein Hauptmerkmal der neuen AI-Software ChatGPT, dass sie die Quellen der von ihr formulierten Aussagen unsichtbar macht. Da sie nur auf aktuell bekannte Fakten und Pseudofakten zugreifen kann, sind ihre Aussagen ziemlich wertlos, solange man nicht weiß woher sie kommen.“

    Angeblich arbeiten Google Forscher daran, dass KI Software Ergebnisse „kommentieren“ kann. Das benötigt Ressourcen, ist aber nicht immer nötig.

    Anwender, z.B. Röntgen Diagnose Ärzte wissen, dass eine KI wegen bestimmter Muster aus „Millionen“ von bewerteten Röntgenbildern, mit einer bestimmten Wahrscheinlichkeit schließt, dass diese Muster auf eine bestimmte Erkrankung hindeuten. Dieser Sachverhalt muss natürlich halbwegs verifiziert sein.

    Eine Kommentierung wäre zweckmäßig, wenn man „Funktionsmechanismen“ nachvollziehen will und auf Forschungsergebnisse aufbauen möchte.

    Zitat: „Und wer braucht schon Smalltalk mit einem Computer?“

    Da könnte ich mir Anwendungen vorstellen. Z.B. in der Psychologie für Analysen aus Gesprächsmustern, oder therapeutisch, wenn alte alleinstehende Menschen, die überhaupt keine Kontakte mehr haben und für einige Worte an der Aldi Kasse beim Einkauf dankbar sind….

    Zitat: „Da fragt man sich: Wer hat diese Daten wann, wo, wie und unter welchen Umständen erhoben.“

    Das stimmt natürlich. Aber man kann z.B. aus „Kriegsdaten“ praktisch herauslesen, von welcher „Seite“ sie stammen. Ich vermute, dass diese Daten prinzipiell manipuliert sind und die Probleme bis weit in die Wissenschaft hinein relevant sind.

    Möglicherweise ist eine „Vorselektion“ gar nicht zu vermeiden. Es gab einen Skandal, weil ein Mediziner der auf „Locked in Patienten“ spezialisiert war, kraft seiner Erfahrung erkannte, wann „der Zoombie“ sozusagen „gut drauf“ war, Messresultate brauchbar waren und wann nicht. Die Umstände der Messung sollten halt in die Bewertung einfließen.

  2. Christel Hedrich sagt:

    @realo

    wenn alte alleinstehende Menschen, die überhaupt keine Kontakte mehr haben und für einige Worte an der Aldi Kasse beim Einkauf dankbar sind….

    Ich kenne eine ältere Dame, die Stadtführungen macht, damit sie zumindest einmal täglich mit Menschen kommuniziert. Die gleiche Dame ging im Lockdown täglich einkaufen, um mit Menschen zu kommunizieren. Bei meiner ehrenamtlichen Tätigkeit in einer Klinik sagte mir eine alte Patientin nach einer Buchausleihe, ich sei der erste Mensch, mit dem sie kommunizieren konnte. Es geht alten Menschen also nicht um die Kommunikation mit einem Computer, sondern um Menschen, die auch empathisch sind.

    • Realo sagt:

      @ Christel Hedrich 11. Februar 2023 um 14:56 Uhr

      Ich finde es wunderbar dass Sie sich ehrenamtlich engagieren. Sie kennen doch das Elend. Manche haben einen Hund, eine Katze oder füttern die Vögel im Park. Manche haben einen Schachcomputer und alte Japaner haben einen künstlichen Hunderoboter zum Streicheln.

      Früher oder später werden Sie vermutlich eine Telefonnummer anrufen können, wobei Ihnen eine KI „vormacht“ sie wäre z.B. der verstorbene Ehepartner, natürlich mit der nahezu echten Stimme und mit allen Besonderheiten und Denkmustern wie Sie es vom Partner gewohnt waren. Vermutlich anders als im früheren „echten“ Leben, könnte er immerzu „freundlich“, ….. oder sonst irgendwas sein.

      Vielleicht werden Sie auf diese von KI gesteuerten Gespräche („mit dem Jenseits“) gar nicht mehr verzichten wollen…..

      Einige „Stimmproben“ und „psychische Parameter“ der allenfalls verstorbenen „Bezugsperson“ könnten reichen….

  3. Rainer Gebauer sagt:

    Im Zusammenhang mit ChatGPT fühle ich mich an die Diskussionen erinnert, die beim Erscheinen eines Chat-Programms namens ELIZA aufkamen, entwickelt 1966 von Joseph Weizenbaum. ELIZA erzeugte sein damals verblüffendes Einfühlungsvermögen in menschliches Denken und Fühlen durch eine einfache Strategie: Sofern möglich beantwortete ELIZA alle Fragen mit Gegen- bzw. Hinterfragungsfragen oder lapidaren Wiederholungen dessen, was das plaudernde menschliche Gegenüber von sich gab. Letztlich ging es bei ELIZA um die Frage, ob man ein Computerprogramm so anlegen kann, dass man als Mensch nicht mehr merkt, mit wem bzw. was man spricht, so dass es unerheblich scheint, wie es nun wirklich funktioniert.

  4. Timm Grams sagt:

    An einen Abend mit Joseph Weizenbaum im Oktober 1999 kann ich mich gut erinnern. Beim Bier gab er uns einen Eindruck vom jüdischen Humor. Da hatten wir seinen Vortrag über das Jahr-2000-Problem gerade hinter uns. Bei dieser Gelegenheit macht er uns auch klar, wie wenig er von der künstlichen Intelligenz hält, mit der sich seine Kollegen am MIT so beschäftigen. Er zeigte sich entsetzt darüber, dass sein Programm ELIZA für einen Meilenstein der künstlichen Intelligenz gehalten wurde.

    In gewissem Sinn war ELIZA eine Schauspielerin, die über eine Reihe von Techniken verfügte, aber selbst nichts zu sagen hatte.

    Wer mit ELIZA spricht, der vermeint, dass ELIZA sinnvolle Antworten liefert, der Sinn wird aber vom Sprecher selbst erzeugt. Es ist die Sinnsuche des Wahrnehmungsapparats, die uns hier einen Streich spielt. Sie wird auch von Wahrsagen genutzt, indem sie uns Barnum-Texte vorlegen.
    Die Fragwürdigkeit der ganzen Sache macht Weizenbaum mit einem Zitat von Ionesco deutlich:

    Man kann vieles mit Worten ausdrücken, nur nicht die lebendige Wahrheit.

    Die Zitate habe ich dem Buch Die Macht der Computer und die Ohnmacht der Vernunft von Joseph Weizenbaum entnommen (1977).

    ChatGPT ist unglaublich viel komplexer als ELIZA. Der Fortschritt in Richtung Menschenähnlichkeit scheint mir aber eher marginal zu sein.

    • Realo sagt:

      @ Timm Grams 11. Februar 2023 um 19:33 Uhr

      Ich habe gelesen, dass Weizenbaum vor allem entsetzt darüber war, dass Psychologen ELIZA als ausbaufähig, zweckmäßig und hilfreich für ihre zeitraubenden Analysen empfanden.

      Die Psychologen wollten für ihre Untersuchungen den Patienten lange Assoziationsketten („Muster“ die typisch für bestimmte psychologische Probleme sind) „entlocken“ und festhalten. Sie wollten sozusagen ihre Arbeit „automatisieren“ um Zeit zu sparen.

      Dazu reichen Stichworte von einer Maschine, die die Patienten systematisch „zum Reden bringen“ sollten. Sie wollten sich danach nur mehr die ausgedruckten, womöglich aufbereiteten „Assoziationsketten“ anschauen, wie z.B. heutzutage ein Radiologe die CT Bilder am Bildschirm betrachtet und der weiß sofort was „los ist“.

      Für einen Techniker/Informatiker wie Weizenbaum, der vermutlich nie im Service, sondern nur in der Entwicklung tätig war, sind derartige, auf Musterauswertung beruhende Fehlersuchen völlig absurd.

      Wegen der hohen theoretischen Komplexität (Kombinatorik) wäre die Fehlersuche, selbst bei z.B. einem Fernseher mit z.B. 400 Bauteilen, wobei jedes Bauteil in Kombination mit einem oder mehreren, oder allen Bauteile defekt sein kann, extrem lange.

      Für einen erfahrenen Techniker geht es normalerweise sehr schnell. Der Kunde wird von der Sekretärin nach den „Fehlermustern“ befragt, welche Marke der Fernseher hat und welcher Fehler, entweder zeitweise oder andauern auftritt. Er macht dann nur noch wenige Testmessungen beim Kunden, wechselt sehr schnell die defekten Bauteile aus und der Fehler ist behoben.

      Wenn man die Möglichkeit hat, die Sichtweisen zu analysieren, ist völlig klar, warum Weizenbaum den Sachverhalt völlig anders sah als die Psychologen. Aber an der „Patientenfront“ arbeiten nun einmal z.B. die Psychologen und die haben eine andere „typische“ Sicht.

      Umgekehrt hätten es Psychologen damals nicht geschafft ELIZA zu programmieren….

      ELIZA war eines der ersten Programme die sozusagen mit „besonders banaler“ Musterauswertung bei einem besondere komplexen System „gespielt“ haben.

      Man kann nur versuchen der „Wahrheit“ näher zu kommen.

    • Timm Grams sagt:

      Eine solche technikzentrierte Sicht, basierend auf mechanisierter Mustererkennung, habe ich mir nie zu eigen gemacht, obwohl sie in Karl Steinbuch seinerzeit einen prominenten Vertreter hatte. Der Reichtum des Lebens geht weit über das hinaus, was Computer oder Maschinen zu leisten vermögen.

      Im Grunde genommen geht es darum, dass es menschliche Funktionen gibt, die nicht durch Computer ersetzt werden sollten. Es handelt sich nicht darum, was man mit Computern alles machen kann und was nicht. Respekt, Verständnis und Liebe sind keine Probleme, die mit Technik zu tun haben.

      Die Domäne des Computers ist die instrumentelle Vernunft und nichts darüber hinaus. Das Schlusskapitel von Weizenbaums Buch, aus dem ich hier zitiert habe, heißt: Gegen den Imperialismus der instrumentellen Vernunft.

  5. John Solar sagt:

    Wenn ich die richtigen Fragen an Chatgpt stelle, dann bekomme ich bemerkenswerte Antworten, die teilweise meine geistige Unbeweglichkeit aufzeigen und meine enge Sichtweise auf gewisse Sachverhalte Instantan erweitern.

    Ich finde das erfrischend so ein Tool zur Verfügung zu haben um einen Sparingspartner zu haben, ich könnte das auch in Debatierrunden und Clubs wie diesem Blog hier tun, aber das ist viel aufwändiger… ich finde das Tool ist eine super ergänzung

    Und der Dr. Arnold erklärt die Sache weit differenzierter als der Herr Professor hier…

    https://www.youtube.com/watch?v=-c8ogAwX6KI

    Die Professorein Weßels habe ich mir dann nicht weiter angehört:
    https://www.youtube.com/watch?v=cMuBo_rH15c

    Ich habe neben dem Kanal von Veritasium noch tolle Bildungsinhalte gefunden:

    https://www.youtube.com/@Stefan_Krauter
    https://www.youtube.com/@SabineHossenfelder
    https://www.youtube.com/@EngineeringwithRosie

    • Timm Grams sagt:

      @ John Solar

      Ihre Quellenhinweise schätze ich. Sie selbst scheinen aber die von Ihnen empfohlenen Bücher und Videos nicht gründlich zu studieren. Das Video von Thomas Arnold finde ich sehr gut. Insbesondere das, was er zu Anwendungen in der Lehre zu sagen hat. Eine Erwiderung auf meinen Artikel oder gar einen Widerspruch gibt das Video nicht her.

    • John Solar sagt:

      Natürlich erkenne ich einem Widerspruch, Sie verteufeln das Tool und lassen kein gute Haar daran, Arnold zeigt auch Möglichkeiten auf ^^

    • Timm Grams sagt:

      Vor vielen Jahren, 2006, habe ich einen Artikel zum Thema Oberflächenkompetenz und Konsumverhalten geschrieben. Leider verstärkt ChatGPT diesen Trend. Das Hauptproblem ist aber der Verzicht auf verlässliche Quellenangaben. Auch auf einen Nutzen habe ich hingewiesen: Trainieren der Fähigkeiten zum Aufdecken von Fake News.

  6. John Solar sagt:

    Zitat: „Leider verstärkt ChatGPT diesen Trend. Das Hauptproblem ist aber der Verzicht auf verlässliche Quellenangaben. “

    Wieso sollte chatgpt den Trend verstärken? Eher sorgen die Algorythmen und die hybride digitale Kriegsführung dafür.

    Willige Opfer mit schlechter Medienkompetenz gibt es ja genug!

    Ich prüfe immer wieder die Quellen der Content Creator, chat gpt befindet sich ja im Lernstadium. Das heute keine Quelle angegeben wird erklärt Arnold doch als normal, weil die KI/ML Algos ja überall crawlen aber nur zum lernen nicht zum speichern.

    Hmmm, ob mit gerade beim Fake new aufdecken chat gpt hilft fraglich, dafür reicht doch

    https://der-newstest.de/
    und
    https://www.bundesregierung.de/breg-de/themen/dangerous-fake-news-1911034

    Fraglich ob die KI selbst in der Lage sein wird Fake News zu erkennen, bis dato wohl nicht so richtig…

    Und zumindest im Energiewende Thema prüfe ich die studien untereinander und rechne wo objektiv möglich auch selber nochmal nach!

  7. John Solar sagt:

    Mir fällt ein weiterer zweck ein, lasse sie den ML Algorythmus alle Daten(einschl chats und mailberkehr) eines Konzerns zum lernen nutzen, dann fragen sie „als Vorstand“

    wer intrigiert gegen mich

    wer macht messbar einen guten job

    welcher verheiratete mann hat ein verhältnis mit einer unverheirateten kollegin

    usw usw

  8. John Solar sagt:

    Tja hmmm ich sag doch ihr stellt die falschen Fragen mit eurem Mathekram, oder sind Ärzte jetzt alle Hohlschwätzer?

    https://youtu.be/B1Eo5IpBNAY

  9. Timm Grams sagt:

    @ John Solar

    Janos Hegedüs findet die Fähigkeiten von ChatGPT hinreißend. In seiner Hingerissenheit wirkt er auf mich wie jemand, der sich von einem Wahrsager begeistern lässt. Wer der GWUP so nahe steht wie Hegedüs, der sollte eigentlich dagegen gewappnet sein.

    Dass das KI-System auch viel Richtiges behauptet, ist nicht verwunderlich: Es wurde mit einer riesigen Datenbasis trainiert, die genau diese Wahrheiten enthält. Im kontextbezogenen Erinnern ist das System halt verdammt gut.

    Hier wird mit viel technischem und energetischem Aufwand etwas Beeindruckendes auf die öffentliche Bühne gestellt. Ich frage mich: Was kann man damit machen? Welcher Nutzen und welche Gefahren sind damit verbunden?

    Um den Schaden für dieses Blog möglichst gering zu halten, will ich Geplapper nach Möglichkeit aufspüren und nicht mehr freischalten.

  10. Realo sagt:

    @ Grams

    Zitat: „Hier wird mit viel technischem und energetischem Aufwand etwas Beeindruckendes auf die öffentliche Bühne gestellt. Ich frage mich: Was kann man damit machen? Welcher Nutzen und welche Gefahren sind damit verbunden?“

    Ich meine, den KI Firmen geht es zunächst darum, möglichst viele Fragen zu „erheben“ die Nutzer nun einmal haben könnten? Da sind, auch weltweit gesehen, allerhand kreative Fragen zu erwarten.

    Gefährlich könnte sein, dass die „Querdenkerzahlen“ noch weiter explodieren werden, ähnlich wie z.B. den manipulierenden Medien immer weniger, nicht einmal mehr „die Wahrheit“, wirklich „geglaubt“ wird.

    Viele meinen, man hätte die „Bevormundung“, z.B. durch Ideologie/Religion halbwegs abgeschüttelt und schon drängt sich eine neue „grüne Religion“ mit unzähligen Vorschriften, z.B. den „Veganismus“ in unser Bewusstsein. Eine neue „Religion“ mit „Weltuntergangspropheten“, „Bußpredigern“ die Klimabuße, die Opferung der Ölkessel und der Autos fordern, auch noch mit den erpresserischen „Klimaklebern“ im Schlepptau. Noch dazu sind sie widersprüchlich, zuerst „Friedensapostel“, jetzt „Kriegslüstlinge“.

    Ein Vorteil der KI wäre, dass man sie einerseits mit realistischen Expertensystemen und halbwegs seriösen Datenbanken verknüpfen kann, dann werden die Antworten eher zuverlässiger werden.

    Allenfalls kann die KI selber bewerten, wie sie ihre eigene Zuverlässigkeit als „Wahrscheinlichkeit“ einschätzt.

    Auch kann man die KI z.B. so konfigurieren, dass sie eher „exotische Denkmuster“ verfolgt, auf die Menschen kaum kommen können, weil sie zu stark traditionelle „Denkmuster“ verfolgen. Dann könnte sie wegen ihrer schnellen und überragenden „Kreativität“ Menschen übertreffen.

    Menschen können nicht schnell wie die Computer ununterbrochen „nachdenken“ und ihr „Wissen“ fast beliebig „kumulieren“, dass auch noch dazu mit dem Tod weitgehend „verloren“ ist, zumal es nicht ausreichend vollständig in Datenbanken gespeichert sein dürfte.

    In der Informatik macht einfach ein neuer, schnellerer Computer mit der gesicherten Software weiter, wo die defekt gewordene und verschrottete Hardware aufgehört hat.

    Es könnten neue wissenschaftliche Konzepte angeregt und entwickelt werden.

  11. Timm Grams sagt:

    @ Realo

    Sie schreiben:

    Auch kann man die KI z.B. so konfigurieren, dass sie eher „exotische Denkmuster“ verfolgt, auf die Menschen kaum kommen können, weil sie zu stark traditionelle „Denkmuster“ verfolgen. Dann könnte sie wegen ihrer schnellen und überragenden „Kreativität“ Menschen übertreffen.

    Abgesehen von meinen Zweifeln an der Kreativität der Maschine, stelle ich die zentrale Frage: Wer konfiguriert und zu wessen Nutzen? Bereits jetzt haben wir ja mit Google (Alphabet) und Facebook (Meta) eine wahnwitzige Macht- und Kapitalkonzentration. Ich bin nicht der Einzige, der die Demokratie in Gefahr sieht. Ein paar kritische Punkte haben Sie ja ebenfalls angesprochen.

  12. John Solar sagt:

    Zitat: „Wer konfiguriert und zu wessen Nutzen?“

    Ich habe mich vor kurzem mit einem Kollegen unterhalten der seinen Master in KI gemacht hat vor zwei Jahren, grds., wenn er richtig lag, konfiguriert hier niemand mehr was.

    Der Witz an den neuronalen Netzen ist ja grade das Sie funktionieren aber keiner Programmiert direkt was sie tun und keiner weiss wie sie funktionieren.

    D.h. es wird eben nichts konfiguriert sondern das System wenn läuft entwickelt sich ja selbst weiter.

    Also bin ich mir nicht sicher ob die KI manipulierbar ist, in dem Sinn wie sie es denken…

    Mich würde halt mal interessieren, was würde passieren wenn wir ein Tool wie das der digitalen Söldner von Team Jorgen auf die KI loslassen würden.
    würde die KI Fakten und Fiktion unterscheiden können?

    https://www.zdf.de/nachrichten/politik/team-jorge-israel-desinformation-wahlen-100.html

    Ich sehe primär Vorteile, weil am Ende zieht der Mensch dem Ding den Stecker/Energie und dann wars das!

  13. Timm Grams sagt:

    @ John Solar 21. April 2023 um 20:13 Uhr

    es wird eben nichtskonfiguriert sondern das System wenn läuft entwickelt sich ja selbst weiter.

    „Konfigurieren“ ist eine zu enge Fassung dessen, worum es geht.

    das System wenn läuft entwickelt sich ja selbst weiter.

    Ganz alleine sicherlich nicht. Für eine halbwegs sinnvolle Weiterentwicklung braucht es ein Belohnungssystem. Ein solches Belohnungssystem zu definieren, gehört in den Kompetenzbereich des Menschen. Er will ja, dass die Maschine etwas tut, das ihm nützt.
    ChatGPT, eine Maschine, ist auf amerikanische Zuvorkommenheit und Höflichkeit trainiert. Das finde ich ziemlich nervig. In den USA habe ich mich über die immer freundlichen aber ahnungslosen Bedienungen geärgert. Was habe ich mich damals auf meine Bedienungen in Deutschland gefreut: zuweilen knurrig, aber effizient. Das passt irgendwie zu meinem Thema Oberflächenkompetenz.

  14. John Solar sagt:

    Zitat: „zuweilen knurrig, aber effizient.“

    –> das trifft auch gut auf Sie zu, oft hab ich aber den Eindruck sie bewerten die Dinge viel zu schwarzmalerisch und sehen auch nicht immer alle Facetten Aspekte eines Themas, sondern sind schon auch so ein bisserl Betriebsblind…

    Das beste, ich kann ihnen das in unserer freien demokratischen Gesellschaft einfach schreiben ohne das ich angst haben muss das mich morgen die „Gestapo“ holt!

    • Timm Grams sagt:

      Freiheit, Demokratie und Rechtsstaat hoch zu schätzen und gleichzeitig die Instrumentalisierung dieser Werte für imperialistische Zwecke zu verabscheuen, das passt schon.

    • John Solar sagt:

      Eventuel passt folgendes dazu:


      Anstatt die Menschen für das Leben vorzubereiten, bereitet die Schule sie für öffentliche Ämter vor, in denen man ohne einen Schimmer von Tatkraft Erfolg haben kann, sie erzeugt am Fuße der Leiter, die proletarischen Heere, die mit ihrem Los unzufrieden und stets zum Aufstand bereit sind.

      Oben aber an der Spitze der Leiter, unsere leichtfertige und zugleich skeptische und gutgläubige Bourgeoisie, mit ihrem übertriebenen Vertrauen zu Staatsvorsehung. Die sie gleich wohl unaufhörlich beschimpft, weil sie stets ihre eigenen Fehler der Regierung zu schiebt und unfähig ist, ohne die Vermittlung der Obrigkeit etwas zu unternehmen.“

      Le bon 1895…

    • Timm Grams sagt:

      Ich werde Le Bon noch studieren. Was Sie schreiben, scheint mir jedoch stark verkürzt zu sein.

      Im Laufe der Industrialisierung schob sich zwischen das besitzende Bürgertum und das Proletariat eine weitere Klasse aus gebildeten Technikern und Ingenieuren. Dementsprechend wurde das Schulwesen in der zweiten Hälfte des 19. Jahrhunderts umgestaltet, ausgehend von Frankreich mit seinen Polytechniques.

      Die von mir besuchte Oberrealschule Würzburg (jetzt Röntgen-Gymnasium), gegründete 1907, ist ein Resultat dieser Entwicklung.

      ChatGPT antwortete auf meine Frage „Wann wurde die Oberrealschule Würzburg gegründet?“ Folgendes:

      Die ehemalige Oberrealschule in Würzburg wurde im Jahr 1868 gegründet. Später wurde sie in „Heinrich-Thein-Schule“ umbenannt und ist heute als „Heinrich-Thein-Berufsschule“ bekannt.

      Das ist Quatsch.

  15. Timm Grams sagt:

    Wer wissen will, wie man durch ChatGPT auf die schiefe Bahn geraten kann, der möge, auf eigene Gefahr, hier nachsehen:
    https://herzausfels.de/2023/04/24/klimakleber/

    • John Solar sagt:

      Schiefe Bahn? Definieren Sie bitte schiefe Bahn genauer.

      ist nochmal überarbeitet, und die links hatte ich schon selber alle rausgesucht chat gpt hab ich nur die Zusammenfassungen schreiben lassen über das was ich so in (a)social Media sehe und gesehen habe.

  16. Timm Grams sagt:

    @ John Solar

    Ihre Frage an ChatGPT legt eine Tendenz fest und das System verstärkt diese, auch durch vage Formulierungen, die unser Wahrnehmungsapparat mit Sinn füllt. ChatGPT ist unvermeidbar tendenziös. Beispielsweise wird den Fortschrittsapologeten unter den Umweltaktivisten ein großes Gewicht beigemessen, das deren tatsächlicher Rolle in der öffentlichen Diskussion nicht entspricht.

    Da ChatGPT Meinungen äußert, ist gegen tendenziöse Äußerungen nichts zu sagen. Die Tendenz wird festgelegt durch die Daten, mit denen ChatGPT gefüttert wird und durch das Belohnungssystem, unter dem das System lernt.

    Nur: Wessen Meinung das ist, hätte ich schon gern gewusst. Genau das scheint mir der Grundwiderspruch des Systems zu sein: Es tritt mit universellem Anspruch an, aber Meinungen sind zunächst einmal sehr persönlich. Da haben wir den alten Widerspruch zwischen objektiv und subjektiv. Er wird durch ChatGPT nur scheinbar aufgelöst – eine Täuschung.

  17. John Solar sagt:

    Zitat:“Ihre Frage an ChatGPT legt eine Tendenz fest und das System verstärkt diese, auch durch vage Formulierungen, die unser Wahrnehmungsapparat mit Sinn füllt“

    Das ist tatsächlich so, ich kann das System ganz geschickt durch meine Fragestellung in bestimmte Richtungen lenken, und erhalte dementsprechend dann einen Text.
    Ich nutze das entsprechend so, ich möchte einen Text haben.

    1. Ich überlege mir eine Fragestellung, woraufhin mir der Algo einen Text schreibt
    2. Dann fange ich an bestimmte Dinge anders zu fragen dann erweitert es den Text
    3. wenn mir der Text passt wird er copy&paste übernommen, wenn nicht, dann frage ich weiter oder passe den Text an, das findet man dann auch beim genauen lesen heraus.
    4. Die KI selbst hat ja keine Meinung sondern nur mathematische Algorithmen mit Häufigkeiten zu Wörtern… (irgendwie in der Art)

    Es erzeugt daraus dann einen Text den ich annehmen kann oder nicht, aber ich mache mir damit nicht die Meinung oder Aussagen der KI zu eigen, sondern ich lasse das ding einfach nur den Text schreiben um das selbst nicht machen zu müssen.

    Für Menschen wie mich, mit leichter Schwäche bei der Rechtschreibung und Zeichensetzung optimal.
    Nimmt mir einfach Arbeit ab.

    Ich verstehe aber natürlich auch ihre Bedenken und Ansätze, insbesondere:
    „Es tritt mit universellem Anspruch an, aber Meinungen sind zunächst einmal sehr persönlich. Da haben wir den alten Widerspruch zwischen objektiv und subjektiv. Er wird durch ChatGPT nur scheinbar aufgelöst – eine Täuschung.“

    Da muss ich aber nochmal länger drüber nachdenken ihr Satz ist m.e. wahr und falsch zugleich, könnte wahr und falsch zugleich sein…

  18. Timm Grams sagt:

    Durch Meredith Whittaker fühle ich mich in meiner Ablehnung der Plapper-KI bestärkt:

    Es gibt 0 Evidenz dafür, dass KI ein Bewusstsein erlangen kann.

    Im Interview sagt sie weiter:

    Stattdessen gehören die KI-Systeme Big-Tech-Firmen. Diesen geht es nur um wirtschaftlichen Profit und Wachstum. Diese Interessen stehen dem sozialen Gedanken oder öffentlichem Interesse sowie demokratischen Entscheidungen oft konträr entgegen. Die KI-Systeme, die von diesen Unternehmen entwickelt werden, sind Teil des Überwachungskapitalismus. Mit den Daten werden Vorhersagen über Menschen getroffen, Entscheidungen über sie gefällt, und es werden noch mehr Daten produziert und gesammelt.

    Dazu passt dieses Zeit-Interview Künstliche Intelligenz, das ist ein Marketingbegriff

  19. Elektroniker sagt:

    @ Timm Grams 20. Juni 2023 um 08:38 Uhr

    Die KI Frage finde ich interessant und ich würde versuchen, diese Frage möglichst differenziert zu sehen. Mir ist klar dass wir jetzt schon von den Medien im höchsten Maße manipuliert und mit Informationsmüll zugeschüttet werden. Das wir auch noch zunehmen und immer schwerer zu durchschauen sein. Vielleicht wird es, womöglich „KI Filter“ geben, mit denen man sich persönlich gut schützen kann.

    Viele Jobs im Textbereich, in der Beratung, im Pflegebereich aber besonders auch im Bildungsbereich werden verloren gehen. Die Lehrer werden nur noch darauf achten, dass die Schüler die von den „KI Lernmaschinen“ individuell vorgegebenen Lektionen ordentlich abarbeiten. Allerdings so wie derzeit, z.B. „Sprachverwirrung“ in den Klassen, die Eltern müssen stark „nachhelfen“, kann es ohnehin nicht weitergehen.

    Viele notwendige Jobs müssen so und so ersetzt werden, weil sie nicht nachgefragt sind und die arbeitende Bevölkerung eher abnehmen dürfte (Pensionen).

    Bei der „Bewusstseinsfrage“, die eher eine „Empfindungsfrage“ sein dürfte, kommt es darauf an, ob (hohe) Korrelationen bestimmter „Empfindungen“, mit (vielleicht noch gar nicht bekannten) „physikalischen Phänomenen“ gefunden werden können?

    Es musste immer schon ein Konsens zwischen den Interessen der Big-Tech-Firmen und der Gesellschaft gefunden werden. Dazu gehört, zu unserem Glück, auch das Interesse der Anbieter möglichst die Kundenwünsche zu befriedigen.

    Die KI-Systeme, die von diesen Unternehmen entwickelt werden, sind Teil des Überwachungskapitalismus und des Kommunismus. Ganz einfach deswegen, weil ein gewisses Interesse an sozialem Frieden besteht, Angriffe abzuwehren. Ich habe jedenfalls den Eindruck, dass einzelnen Gruppen immer mehr versuchen, ihre Meinung, ihren Willen, ihre „Wahrheit“, allen Menschen „aufzwingen“ zu wollen. Von den „Klimaklebern“, den „Queeren“, …… bis zu den „Veganern“.

    Vielleicht kann man die KI in die „Wissen schaffenden“ Systeme einbinden. Indem sie z.B. zusätzliche und immer mehr neue erfolgreiche „Muster“ generieren, wie z.B. bei Spielen, wie bei Schach und Go. Da werden angeblich im Spiel mehr „Muster“ generiert und getestet, als von der ganzen Menschheit „jemals gespielt“ wurden. Allerdings ist es wegen der geringen Zahl an „Spielregeln“ relativ einfach, in „nützlich“ oder „falsch“ zu entscheiden.

  20. Timm Grams sagt:

    @ Elektroniker

    Es liegt im „Interesse der Anbieter möglichst die Kundenwünsche zu befriedigen“, die sie vorher selbst erzeugt haben – Oder? Ich empfehle, die Lebenserinnerungen von PT Barnum zu lesen. Darin erfährt man viel über den American Way of Life.

    Es bringt nichts „zusätzliche und immer mehr neue erfolgreiche“ Muster zu generieren, wenn nicht klar ist, was unter Erfolg zu verstehen ist. Die Vernichtungsmaschinerie war in den Augen der Nazis äußerst erfolgreich.

    Sie weichen der Frage nach dem Bewusstsein und der Rolle der Werte in menschlichen Gesellschaften aus. Aber erst wenn diese Punkte geklärt sind, kann man sich mit einiger Zuversicht der Frage nach dem Nutzen einer Technik zuwenden. Dann ist aber immer noch eine ganz wesentliche Frage offen: Wer hat die Macht und wer bestimmt die Werte und Ziele?

    Wir können froh sein, dass in unserer Gesellschaft Leute vernehmbar sind, die für ihre Überzeugung abseits des Mainstreams eintreten: Klimakleber, Queere, bis hin zu den Veganern. Unser Rechtssystem zieht die Grenzen für solche Aktivitäten sehr weit, sehr viel weiter als es beispielsweise Russland oder der Iran tun. Diese Variabilität ist entscheidend für die Überlebensfähigkeit einer Gesellschaft. Spätestens seit Charles Darwin und Herbert Spencer dürfte das klar sein.

  21. Elektroniker sagt:

    @ Timm Grams 21. Juni 2023 um 14:35 Uhr

    Zitat: „Es liegt im „Interesse der Anbieter möglichst die Kundenwünsche zu befriedigen“, die sie vorher selbst erzeugt haben…“

    Man kann es so sehen. Wünsche sind Wünsche, selbst wenn sie manipulativ gefördert werden.

    Ich persönlich möchte es aber, aus psychologischen Gründen, nicht so sehen. Die Menschen generieren auch auf diese Weise motivierende „kleine Glücksmomente“ um gerne „leben zu wollen“.

    Selbst (junge) Schlachttiere dürften beim „Spiel“ derartige „Momente“ genießen dürfen.

    Ein besonderes berührendes Beispiel habe ich im Zug bei einem mir unbekannten Chirurgen beobachtet. Er hat seinen „Kumpels“ am Handy von einer komplexen Kieferoperation mit „5? Parametern“ die er optimieren musste, erzählt. Ein Patient, der eine schwerste Fehlstellung der Kiefer hatte, entstellt war und noch dazu deswegen eine schwere Sprachbehinderung hatte, kam zu seiner „letzten“ Untersuchung. Der Patient war überglücklich, die Operation bestens geglückt. 2 überwältigende Glücksmomente…. Dafür hat der Chirurg viele Mühen in Kauf genommen.

    Zitat: „Es bringt nichts „zusätzliche und immer mehr neue erfolgreiche“ Muster zu generieren, wenn nicht klar ist, was unter Erfolg zu verstehen ist. Die Vernichtungsmaschinerie war in den Augen der Nazis äußerst erfolgreich.“

    Der Erfolg ist vermutlich das möglichst lange „Überleben der Art“ (Darwin). Das dürften Religionen mit ihren teilweise gemeinsamen, grundlegenden, ethischen Konzepten bewirken wollen.

    Die „Rolle“ die die Werte „spielen“, entsprechen der „Rolle“ des „Betriebssystems“ bei Computern. Dass Bewusstsein bewirkt eine gewisse „Autonomie“, z.B. bei Menschen. Bei Computern ist jedenfalls ein „zu viel“ an Autonomie unerwünscht….

    Wie weit die „Menschheit“ künftig auf „Vernichtungsmaschinerien“ (A, B, C – Waffen) verzichten wird, natürlich auch auf Provokationen jeder Art, ist eine andere Frage.

    Zitat: „Wer hat die Macht und wer bestimmt die Werte und Ziele?“

    Das wage ich nicht zu beurteilen. Vermutlich liegt es letztlich an den „Mechanismen“ die insgesamt das Leben, alles an „Materie“, jegliche „Prozesse“, alles an „Information“ bereit stellen und steuern. Manche Menschen bezeichnen genau dies, so wie es eben „wirklich“ ist, aber wegen der „Transzendenz“ nicht vollständig verstanden wird, Gott….

    Zitat: „ Aber erst wenn diese Punkte geklärt sind, kann man sich mit einiger Zuversicht der Frage nach dem Nutzen einer Technik zuwenden.“

    Ich meine, man kann die Entwicklung der Technik kaum aufhalten. Software Entwicklungen schon gar nicht. Entscheiden wird der Markt.

    Ich bin für Demokratie, aber gegen Nötigung. Grenzen sollten eingehalten werden.

  22. Timm Grams sagt:

    @ Elektroniker 22. Juni 2023 um 00:08 Uhr

    Indem Sie schreiben „Entscheiden wird der Markt“ geben sie jeden Versuch der Selbstbestimmung auf.

    Es geht um die Fundamente unserer Demokratie. Das meine ich ernst. Es gibt keinen Anlass für seichtes Geplauder. Plapper-KI hilft jedenfalls nicht weiter.

    Zu meiner Studienzeit sah ich den Film Fahrenheit 451 mit Oskar Werner in der Rolle des Montag. Er hat mich sehr beeindruckt. Später kamen mir Zweifel: Was ist denn an einer bücherlosen Welt so schlimm, wenn die Menschen vor ihren Bildschirmen glücklich sind.

    Dann las ich die Novelle von Ray Bradbury und stellte fest, dass der von François Truffaut gestaltete Schluss mit der Novelle nur wenig zu tun hat.

    Auch in der Novelle gibt es diese Menschen im Wald, von denen jeder ein Buch auswendig lernt und so für die nachfolgenden Generationen aufbewahrt – als Widerstand gegen die Bücherverbrennung. Aber da ist noch etwas anderes.

    In der Novelle erscheint immer wieder einmal und völlig unvermittelt ein Satz wie dieser: The Firehouse trembled as a great flight of jet planes whistled a single note across the black morning sky. Montag beginnt sich zu fragen: How in hell did those bombers get up there every single second of our lives! Why doesn’t someone want to talk about it!

    Der ganze Drama wird erst ganz zum Schluss der Novelle offenbar: Montag saw the flirt of a great metal fist over the far city and he knew the scream of the jets that would follow, would say, after the deed, disintegrate, leave no stone on another, perish. Die.

    Und nun spielt mir mein Kopf einen Streich: Er zwingt mich dazu, die Propaganda im Zuge des Ukraine-Kriegs im Lichte dieser dystopischen Novelle zu sehen – und zwar die des Ostens wie die des Westens.

  23. Elektroniker sagt:

    @ Timm Grams 22. Juni 2023 um 10:26 Uhr

    Ich meine, dass viele Menschen die Manipulation durch die Medien durchschaut haben und sehr skeptisch geworden sind. Das wird sehr schnell auch bei KI Produkten der Fall sein.

    Ich habe eher den Eindruck, dass die Bedeutung der „Plapper-KI“ von der Wissenschaft überschätzt wird. Sie ist eher eine Erweiterung von Google mit einigen „Gags“ auf die ich noch eingehen möchte.

    Außerdem habe ich den Eindruck, dass Google eher weniger manipulativ im Zusammenhang mit Kriegspropaganda war, als z.B. Diskussionssendungen in Medien. Ich habe vor einiger Zeit noch Links gefunden die praktisch extrem kritisch gegenüber Kriegspropaganda waren, so wie es mir in meiner Jugend von zu Pazifisten gewordenen Menschen/Lehrern „eingetrichtert“ wurde. Muss Google nochmals auf den „Zahn fühlen“, wie sie es mit der „Objektivität“ halten, oder ob derartige Beiträge „verschwunden“ sind.

    Mir persönlich hat es immer großen Spaß bereitet, mich in konträren Medien Z.B. in „Kommunistischen“ oder „Kapitalistischen“ z.B. über den Vietnamkrieg zu informieren. Der gleiche Vorfall war ein grausamer, verbrecherischer Terror Überfall der amerikanischen Luftpiraten auf einen vietnamesischen Kindergarten und die Ermordung vieler keiner unschuldiger Kinder. In anderen Medien hieß es ungefähr so, dass bei der Bekämpfung der heimtückischen und grausamen Vietkongterroristen ein Gebäude mit öffentlichen Einrichtungen leicht beschädigt wurde und dabei möglicherweise sogar Jugendliche leicht verletzt worden sein könnten. ….

    „ChatGPT“ ist eher eine „Leistungsnachweis der KI Forscher“ für den „kleinen Mann“. Der soll etwas beeindruckt werden. Vorerst geht es auch darum, Fragen die „Normalos“ weltweit so haben „einzusammeln“. Da sind Fragen zu erwarten, auf die man normalerweise nicht kommen würde.

    Die Besonderheit von ChatGPT ist, dass es „Sprachmuster“ sozusagen individuellen „Menschentypen“ zuordnen kann, ähnlich wie ein Kabarettist den Bundeskanzler, oder andere bekannte Persönlichkeiten perfekt „nachahmen“ kann.

    Es macht Eindruck, wenn typische „Klugschwätzer“ nachgeahmt werden.

    Ich vermute, man könnte z.B. längst verstorbene „Berühmtheiten“ wie z.B. Goethe, Schiller oder auch Philosophen perfekt „nachahmend simulieren“. Diese „Berühmtheiten“ könnten, sogar von mehreren Menschen gleichzeitig, vom Handy angerufen werden, um sich mit ihnen (in mehreren Sprachen) zu „unterhalten“, obwohl sie längst verstorben sind.

    Auf Grund ihrer teilweise umfangreichen informellen Hinterlassenschaften wird die Persönlichkeit möglichst perfekt simuliert. Das könnte einmal so preiswert sein, dass man sich sogar mit einem verstorbenen Verwandten per „KI Simulation“ unterhalten kann, wenn vorher „Stimm- und Persönlichkeitsmuster“ konserviert wurden.

    Das sind eher „harmlose Gags“, die von der „Plapper -KI“ erwartet werden können. Nachteilig könnte sein, dass die Psychologen (und auch die KI) aus diesen Mustern „Persönlichkeitsprofile“ ermitteln und allenfalls nachteilig verwerten könnte.

    Es ist die Frage, was am Markt für diese „Gags“ bezahlt wird.

    In der Wissenschaft wird man die ChatGPT Software in Expertensysteme einbinden, so dass auch Laien kostengünstig zu Expertenwissen, z.B. Rechtsauskünften kommen. Bedeutet, so wie jetzt schon Mathematikerinnen, werden künftig auch Anwälte an der „Aldi Kassa“ landen….

    Die über die Medien verbreitete Propaganda ist genau so, wie mir ehemals (nach dem WK2) darauf „hereingefallene“ Menschen erklärt haben. Nur Einwände konnten ehemals nicht vorgebracht werden. Diese Menschen wären sofort umgebracht worden. Das ist derzeit nicht der Fall, daher scheint die Zahl der „Propaganda Resistenten“ relativ hoch. Aber letztlich „bügelt“ die Propaganda alles nieder.

    Mit der absurden Kriegspropaganda habe ich die gleichen Probleme wie Sie….

    • Frank Wohlgemuth sagt:

      @ Elektroniker

      Welche Medien sollen das sein, „die uns im höchsten Maße manipulieren“? Diese Aussage ist viel zu pauschal, als dass man sie so stehen lassen kann. Ich sehe auch weniger, dass „wir“ diese Manipulation durchschauen, ich sehe eher, dass ganze Gruppen sich in eine Scheinwelt begeben haben, also die Realität nicht mehr erkennen.

      Der KI-Filter, der uns vor Manipulation schützen kann, ist in weiter Ferne. Alle Entwickler von ChatGPT und ähnlicher Software betonen, dass die in keiner Weise geeignet ist, Faktenchecks zu machen. Diese Software arbeitet statistisch. Übersetzt in die Sprache, mit der wir unser Denkverhalten beschreiben, arbeitet diese Software assoziativ.

      Genau das ist wahrscheinlich der Hintergrund dafür, dass diese Programme Ergebnisse produzieren, die denen unserer „Kreativen“ so verblüffend ähneln, dass die laut aufschreien und um das besorgt sind, was sie bisher als ihr Alleinstellungsmerkmal behaupteten.

      Auf der anderen Seite ist es genau diese Art der Produktion, die dafür sorgt, dass den Ergebnisse der KI keine bestimmte Richtung innewohnt – ein bewährter Ansatz zum Aufdecken von Manipulation ist das Ausgehen von eben dieser und das Untersuchen mit der Frage cui bono. (Wobei auch den Kriminalisten klar ist, dass die Existenz eines Begünstigten noch kein Beweis einer Tat ist). Aber wir finden hier keine bevorzugte Richtung – die Abweichungen der KI-Erzeugnisse von der Realität sind, wenn sie nicht in einer Vorgabe enthalten waren, zufällig und deshalb schwerer zu erkennen.

      D.h. KI wird genau durch das enttarnt, was sie selbst nicht leistet, die mühsame Recherche nach den Fakten.

      Die Gefahr, die von diesen Programmen ausgeht, besteht darin, dass Menschen sie als Denkersatz missverstehen und deshalb immer weniger trainieren, selbst zu denken. Die Leute zum Selberdenken anzuregen war früher schon ein schwieriges Geschäft, das damit jetzt noch schwieriger wird – aber genau diese Menschen wären bitter nötig in der Situation, in die wir uns gebracht haben.

      @ Timm Grams

      Für mich hat Krieg, auch wenn ich etwas gegen ihn habe, offensichtlich nicht den Gefühlswert wie für Sie – aber Sie sehen selbst, dass es da sein kann, dass Ihr Kopf Ihnen einen Streich spielt.

      So sehe ich angesichts meiner Einschätzung der Situation in der Ukraine auch keine Kriegspropaganda auf unserer Seite, sondern im Gegenteil am Anfang ein rhetorisch verdecktes Zaudern, das letztlich dazu geführt hat, dass der Aggressor sich an seinen Linien neu sammeln konnte. Bei einer schnelleren Reaktion des Westens ohne den Bremser Deutschland wäre dieser Krieg heute sehr wahrscheinlich sehr viel näher an seinem Ende.

      Was ich allerdings sehe, ist, dass jeder irgendwie geartete Erfolg Putins mit seinem Überfall ein Signal wäre, das diese Welt unsicherer macht.

      Vielleicht hilft ja Nicole Deitelhoff, Sie etwas zu beruhigen:
      https://www.sueddeutsche.de/meinung/in-aller-ruhe-ukraine-russland-krieg-nicole-deitelhoff-1.5869393

      Zu Putins Rationalität ab Min. 53.)

  24. Timm Grams sagt:

    @ Frank Wohlgemuth 23. Juni 2023 um 12:04 Uhr
    Wollen Sie ausschließen, dass auch Sie Opfer der Propaganda sind? Die Wirkung der öffentlichen Gleichschaltung ist gut wahrnehmbar: Wer anspricht, dass auch die Russen Sicherheitsinteressen haben, wird als Putin-Troll diffamiert. Nur wenige, wie z.B Klaus von Dohnanyi, trauen sich noch, das Naheliegende auszusprechen.

    Nicole Deitelhoff meint, es gebe eine „moralische Durchdringung von eigentlich analytischen Fragen, die dazu führt, dass wir bestimmte Bedingungen gar nicht mehr diskutieren können“. Sie spricht also genau das aus, was ich gegen Sebastian Bartoschek ins Feld geführt habe.

    • Frank Wohlgemuth sagt:

      @ Timm Grams

      Natürlich schließe ich nicht aus, Opfer der Propaganda zu werden. Aber das Beispiel, das Sie geben, eignet sich gut, um zu zeigen, was ich meine:

      Keine Seite kann sinnvollerweise der anderen das Interesse für die eigene Sicherheit absprechen, aber die offiziellen Äußerungen dazu sind nicht unbedingt geeignet, als Maßstab benutzt zu werden.

      Putins Äußerungen: Egal ob ich das Thema Sicherheit, oder etwa Corona, Jahre früher auch AIDS, nehme, es fällt auf, dass relativ gleichzeitige Äußerungen Putins bzw. seines Apparates zum selben Thema durchaus gegensätzlich sein können, je nachdem, wer Adressat ist. Übersetzt: Die Grundlage für Putins Aussagen ist nicht die Realität sondern das Manipulationsziel beim Adressaten. Man kann auch einfach die wechselnden Begründungen für den Angriff auf die Ukraine auf sich wirken lassen, um zum selben Ergebnis zu kommen.

      Wenn ich das russische Sicherheitsbedürfnis einbeziehen will, brauche ich also ein anderes Maß als Putins Äußerungen, deren Bezug zur Realität sehr gering ist.

      Das sinnvollste Maß für die Bedrohung Russlands in Europa scheint mir das Handeln der Europäer zu sein. Die haben nachweisbar seit dem Zusammenbruch der Sowjetunion ihre militärischen Investitionen zurückgefahren, zeitlich noch über die Annexion der Krim durch Russland hinaus. Ich erinnere mich daran, wie ich vor 5? Jahren einem strenggläubigen Kommunisten, der die Aufrüstung und den Militarismus der BRD beklagte, Recht geben musste: Wir waren rüstungsmäßig tatsächlich wieder auf dem Stand des dritten Reiches und verfügten zu diesem Zeitpunkt in unserer Luftwaffe tatsächlich wieder über zwei flugfähige Flugzeuge mit Strahlantrieb. (Da wir hier im Internet sind: Das war ironisch gemeint.)

      Mit dieser Vernachlässigung unserer Verteidigung waren wir aber nicht alleine, sondern alle Europäer waren mehr oder weniger dabei, ihrer diesbezügliche Selbstverpflichtung innerhalb der NATO nicht nachzukommen. Das war auch alles nicht geheim, die Europäer haben eine relativ freie Presse und die NATO verfügt über eine parlamentarische Versammlung zur internationalen Beratung auch außerhalb der Regierungen, in der nach dem Zusammenbruch der Sowjetunion auch deren Nachfolger als assoziierte Staaten mit Beobachterstatus zugelassen waren. Russland flog da erst mit der Annexion der Krim raus.

      Das heißt, dass die Russen zum Zeitpunkt ihres ersten Angriffs auf die Ukraine von ihrem Geheimdienst, aus der ganz normalen Auswertung der freien westlichen Presse und aus ihrem Beobachterstatus in der parlamentarischen Versammlung der NATO genau wussten, dass die NATO in den letzten 20 Jahren objektiv an der Verringerung ihrer Angriffsfähigkeit „gearbeitet“ hatte. Zusätzlich zu dieser militärischen Ebene begab sich speziell Deutschland über den Anteil seiner Gasimporte in immer höhere wirtschaftliche Abhängigkeit von Russland. Bei allem Respekt vor Dohnanyi: Wie kommt er vor dem Hintergrund darauf, die russische Erzählung von einer Verletzung der legitimen Sicherheitsinteressen Russlands zu übernehmen?

      Wenn ich diese Formulierung vor dem realen Hintergrund der möglichen Bedrohung Russlands sehe, dann kann ich die Formulierung von der Verletzung der Sicherheitsinteressen Russlands eigentlich kaum anders interpretieren als die Verklausulierung eines Machtanspruches, dessen einzige Begründung im Besitz einer atomaren Bewaffnung besteht. Dann passt auch die Empörung über die „Osterweiterung der NATO“, die man mit Blick auf die gleichzeitige Vernachlässigung der Rüstung kaum als Aggression sehen kann. Sie ist nur insofern Aggression, als sie den Machtanspruch behindert.

      Die „Bedrohung“ Russlands, die speziell von der Ukraine ausging, war keine militärische, sondern allenfalls eine demokratische, und damit keine Russlands, sondern ihres Machthabers. Wer das aber als legitimes Sicherheitsinteresse bezeichnet, sollte auch Verständnis für Trump entwickeln, wenn der versucht, einen Regierungswechsel durch eine Erstürmung des Kapitols durch seine Anhänger zu verhindern.

      Meine Argumentation ist übrigens keine moralische, sondern eher eine spieltheoretische: Welche Signale geben wir mit welchem Verhalten und welche Reaktionen triggern wir damit.

      btw:
      https://www.tagesschau.de/newsticker/liveblog-ukraine-freitag-274.html#Prigoschin-widerspricht-offiziellen-russischen-Kriegsvorwaenden

      Wenn ich die heutigen Aussagen Prigoschins vor dem Hintergrund seines besonderen Verhältnisses zu Putin richtig interpretiere, dann leitet Putin gerade eine Rolle rückwärts ein.

  25. Elektroniker sagt:

    @ Frank Wohlgemuth 23. Juni 2023 um 12:04 Uhr

    Herr Kiesewetter hat sich in einer Talk Sendung ungefähr so geäußert: Russland müsse vom Schwarzen Meer vertrieben werden, es habe dort nichts zu suchen….

    Er dürfte sich „verplappert“ haben. Allerdings genau das dürfte das Anliegen der westlichen Kriegsparteien sein.

    Nur ein wenig „vertreiben“, nichts ernstes. Die Flotte ins Schwarze Meer, Putin in die Wüste, Nawalny zum Häuptling Russlands treiben, natürlich auch die „Rohstofffirmen“ dem Westkapital in die Hände treiben. Die Russen (die nicht in die Arbeitslosigkeit, wie z.B. in der DDR getrieben werden) dürften in den Firmen ohnehin in Sklavenarbeit unter Tag weiterarbeiten. Alles ganz ohne Gewalt, wie es eben bei der Nato Osterweiterung so war. Ist doch kein Grund für die Russen sich aufzuregen……

    Glauben Sie ernsthaft, die Russen würden sich derartiges gefallen lassen?

    Die Russen haben sich Ihren „Schwarzmeerzugang“, den sie seit „fast ewig“ hatten, in Ihrem „Sonder-Militäreinsatz“ zurückgeholt.

    Sie könnten natürlich eine andere „Rechtsansicht“ haben, aber 3 Rechtsgelehrte können nun einmal 4 Rechtsmeinungen haben. Ich gehe davon aus, dass Putin der „Russischen Rechtsansicht“ folgt. Außer man kidnappt ihn. Auch das würden sich die Russen kaum gefallen lassen.

    Diese von Herrn Kiesewetter geäußerte Sicht wird uns normalerweise vorenthalten. Auch logisch, den meisten Deutschen wäre aber klar, dass sich die Russen (mit ihren Atombomben) eben nicht einfach „vertreiben“ lassen….

    Zitat: „Alle Entwickler von ChatGPT und ähnlicher Software betonen, dass die in keiner Weise geeignet ist, Faktenchecks zu machen. Diese Software arbeitet statistisch. Übersetzt in die Sprache, mit der wir unser Denkverhalten beschreiben, arbeitet diese Software assoziativ.“

    Genau so sehe ich es auch. Allerdings können Sie Expertensysteme einbinden, dann übernimmt die KI das Faktenwissen der Experten.

    Zitat: „Genau das ist wahrscheinlich der Hintergrund dafür, dass diese Programme Ergebnisse produzieren, die denen unserer „Kreativen“ so verblüffend ähneln, dass die laut aufschreien und um das besorgt sind, was sie bisher als ihr Alleinstellungsmerkmal behaupteten.“

    Das hat was auf sich.
    Auch mit dem Rest Ihres an mich gerichteten Textbeitrages bin ich einverstanden.

    Zitat: „Bei einer schnelleren Reaktion des Westens ohne den Bremser Deutschland wäre dieser Krieg heute sehr wahrscheinlich sehr viel näher an seinem Ende.“

    Auch da stimme ich zu, allerdings hätte ein „Atomkrieg“ und die „Atomkrater“ in Mitteleuropa (besonders die in Deutschland) zum schnellen Ende geführt…..

  26. Elektroniker sagt:

    @ Frank Wohlgemuth 23. Juni 2023 um 16:49 Uhr

    Die Politiker von Kohl, Schröder bis Merkel und in Russland Gorbatschow bis Putin haben alle eine rationale Friedenspolitik zum gegenseitigen Nutzen verfolgt. Ist auch angesichts der atomaren Situation naheliegend.

    Russland braucht keine neuen „Staatsgebiete“, es ist selber groß genug.

    Russland will und muss seine Bodenschätze verkaufen und braucht Handelswege, besonders Seewege. Alles andere dürfte ihnen völlig egal sein…. Der geschaffene „Korridor“ in der Ostukraine deutet darauf hin, dass es sich genau so verhält.

    Die traditionellen Häfen auf der Krim und der Zugang sind existentiell wichtig und werden unter allen Umständen für Russland gesichert. Würde man ihnen den Korridor und die Krim auf „ewig zusichern“, wären die Russen vielleicht großzügig bei Rabatten für Rohstoffe die die ukrainische Wirtschaft gut gebrauchen könnte.

    Die Realität ist, es kam zum „Bruderkrieg“ Russland – Ukraine. Die Ukraine fühlte sich, sozusagen als „Erbe“, „nach dem Tod von Mütterchen Russland“ benachteiligt und hat ungewöhnlich emotional und hasserfüllt die Nato in ihren „Erbschaftskonflikt“ mit Russland hineingezogen.

    Zitat: „Die „Bedrohung“ Russlands, die speziell von der Ukraine ausging, war keine militärische, sondern allenfalls eine demokratische, und damit keine Russlands, sondern ihres Machthabers.“

    Es war eine Bedrohung der nationalen, wirtschaftlichen Interessen Russlands, besonders die Verfügungsgewalt über die Bodenschätze zu bewahren. Putin stand für die nationalen Interessen Russlands und ließ sich nicht “kaufen“. Das dürfte den meisten Russen „aufgefallen“ sein.

  27. Timm Grams sagt:

    @ Frank Wohlgemuth

    Sie schreiben:

    es fällt auf, dass relativ gleichzeitige Äußerungen Putins bzw. seines Apparates zum selben Thema durchaus gegensätzlich sein können

    Da hat Putin wohl von Donald Trump gelernt. Propaganda funktioniert mit Behauptung (egal ob wahr oder falsch), Wiederholung und Emotionalisierung. Diese Lehre kommt aus Amerika, dem Land des unbeschränkte Liberalismus und der Werbung. Das funktioniert nicht nur in Amerika, sondern auch bei uns. Gegen jede Evidenz wird behauptet, dass Putin Verträge grundsätzlich nicht einhalte und dass er irrational handele. Sie selbst zitieren Nicole Deitelhoff, die das für widerlegt hält.

    Wer die Empörung über die Osterweiterung der NATO verstehen will, dem genügt ein Blick auf die Landkarte und auf die Kräfteverhältnisse. Die Behauptung, keine expansiven Absichten zu haben, ist angesichts der ins Auge springenden Lage ein durchsichtiger Manipulationsversuch. Siehe oben.

    (Wir sollten uns in der Diskussion wieder mehr auf das Thema ChatGPT konzentrieren.)

  28. Elektroniker sagt:

    @ Timm Grams

    Zum Thema ChatGPT, KI und natürlicher Denkprozess:

    Ich habe bei der Google Suche zum Thema: „Kognitive Modellierung mit künstlichen neuronalen Netzen“
    (https://www.mis.mpg.de/preprints/2000/preprint2000_27.pdf)
    einen interessanten Beitrag gefunden.

    Wenn man zum Stichwort „Neumann“ sucht, findet man die Textstelle:

    Zitat: „Interessanterweise hat sich auch von Neumann bei der Entwicklung des
    heute immer noch in den meisten Computern vorzufindenden Architekturkonzepts von frühen Vorstellungen über die physikalische Funktionsweise des Gehirns leiten lassen“

    Das bedeutet, der vermutlich wichtigste Grundlagenforscher für Prozessortechnik, von Neumann, aber auch andere Forscher (z.B. A. Turing) haben, praktisch wie die meisten Wissenschaftler, die Natur zum „Vorbild“ genommen, um mit technischen Mitteln bedeutsame Mechanismen, die „Natur nachahmend“, zu realisieren.

    Ich hätte angenommen, die „Elektronik“ wurde in so etwas wie „Schwarmintelligenz“ von tausenden Physikern und Elektronikern entwickelt und neuronale Systeme hätten eben „Ähnlichkeiten“. (Vermutlich gibt kein „seriöser“ Wissenschaftler gerne zu, womöglich „heimlich“ an „Denkprozessen“ geforscht zu haben. Scheint etwas „unseriös“, siehe weiter unten.

    Damit scheint auch klar, dass mir diese „Muster“ immer wieder, z.B. im Zusammenhang mit „Assemblies“, in den Texten von bedeutsamen Neurologen, besonders W. Singer und C. v. D Malsburg aufgefallen sind.

    Die Schaltungsmechanismen an denen ich praktisch gearbeitet habe, existierten absolut sinnvoll in der Elektronik, und es ist naheliegend, dass sie in leichter Abänderung auch in neuronalen Systemen „funktionieren“ sollten.

    Die genannten Wissenschaftler wurden letztlich wegen ihrer Forschungsergebnisse „bekämpft“, obwohl deren Erkenntnisse, in etwas abgewandelter Form, für mich alltägliche Arbeit war und die elektronischen Steuerungen perfekt funktionierten, nachdem sie voll ausgereift waren.

    Das erinnert mich vage an einen ehemaligen Klassenkollegen noch in der Grundschule. Der interessierte sich, heute würde man sagen für „Hirnforschung“.

    Sein Vater, ein Dr. Phil. war grundsätzlich dagegen, weil eine derartige Forschung „Blödsinn“ wäre, weil man sich unmöglich selber „am eigenen Schopf aus dem Sumpf ziehen“ könne.

    Der Kumpel meinte, wenn man nicht forscht, so wird man nie Erkenntnisse gewinnen, was aber zweckmäßig wäre, weil „fehlerhaftes Denken“ viel Leid verursachen kann……

    • Timm Grams sagt:

      @ Elektroniker

      Sie stellen immer wieder Analogien in den Raum, die sich beim näheren Hinsehen in Luft auflösen:

      Interessanterweise hat sich auch von Neumann bei der Entwicklung des
      heute immer noch in den meisten Computern vorzufindenden Architekturkonzepts von frühen Vorstellungen über die physikalische Funktionsweise des Gehirns leiten lassen

      Ich weiß nicht, wie das Zitat zustande gekommen ist. Jedenfalls ist es Quatsch.

      Von Neumann hat seine Computerarchitektur 1945 veröffentlicht. Als Vorbild hatte er offenbar die damals bereits existierenden Computer oder die Ideen dazu, insbesondere die der Computererfinder Mauchly und Eckert.

      Konrad Zuses Z1 ist Ende der 30er Jahren entstanden, und ich habe in seinen Lebenserinnerungen keinen Hinweis gefunden, dass er sich mit den natürlichen Denkvorgängen beschäftigt hat.

      Er kannte die Logik und die Algorithmen, die man in der Schule lernt. Die sture Rechnerei ödete ihn an und er fragte sich, ob man diese Mühsal nicht einer Maschine übertragen könne, genauso wie man die Schwerstarbeit im Tagebau den Maschinen überträgt. (Der Schüler Zuse lebte in Hoyerswerda, in der Lausitz. Dort verorte ich auch die Geburt des modernen Computers.)

      Diese Idee hat Konrad Zuse dann mit einer wirklich bewunderungswürdigen Architektur umgesetzt. Die Z3 gilt als erster moderner Computer. Zuse hat ihn 1941 der Fachwelt vorgestellt.

      Die Ideen zu dieser Architektur hatte er aber schon Jahre vorher in Form des reinen mechanisch arbeitenden Computers Z1 realisiert.

      Von Neumann hat meines Erachtens nur das, was in der Computerei bereits gang und gäbe war, publikumswirksam aufgeschrieben.

      Die Computerarchitektur steht im Gegensatz zu dem, was man über neuronale Verarbeitung weiß.

      Sollten Sie Lust und Laune haben in die Geschichte der Computerei einzutauchen, empfehle ich das Buch Geschichten der Informatik von Hans Dieter Hellige von 2004.

  29. Elektroniker sagt:

    @ Timm Grams

    Das Zitat stammt nicht von mir sondern vom o.a. Link. Leider habe ich irrtümlich ausgerechnet die Daten des Zitates beim Kopieren abgeschnitten. Ich entschuldige mich. Das habe ich nachstehend ergänzt.

    Zitat: „Interessanterweise hat sich auch von Neumann bei der Entwicklung des heute immer noch in den meisten Computern vorzufindenden Architekturkonzepts von frühen Vorstellungen über die physikalische Funktionsweise des Gehirns leiten lassen (von Neumann 1958)“

    Zitaten Liste: „[115] von Neumann J. (1958) The computer and the brain. Yale University Press. New Haven, London.“

    An sich verwundert es mich schon, dass ein Wissenschaftler offen auf seine „besondere Quelle der Inspiration“ verweist, wenn die ausgerechnet eine „frühe Vorstellungen über die physikalische Funktionsweise des Gehirns“ ist. Derartige Gedanken sind eher verpönt.

    Ihre Sicht über Zuse, ENIAC, …. wurde auch uns ehemals in der Ausbildung vermittelt. Eher „dezent“ wurden wir auch über „frühe Vorstellungen über die physikalische Funktionsweise des Gehirns“ informiert.

    Letzteres wurde der „Hirnforschung“ zugeordnet und die galt als fast ebenso „verrückt“ wie die „Bibelforschung“. Wobei es durchaus interessant wäre, irgendwann halbwegs erklären zu können, warum Menschen völlig „diametral“ denken können und immer wieder, z.B. in Kriegen, übereinander herfallen?

    Mir ist auch bekannt und völlig klar, dass genau die „von Neumann Architektur“ und der spezielle „von Neumann Zyklus“ völlig anders „funktionieren“ als die neuronale Verarbeitung. Anders als bei der neuronalen Verarbeitung, bei der die Verarbeitung „örtlich und zeitlich im System verteilt“ erfolgt, erfolgt die Verarbeitung in der (eher schon alten) „Prozessortechnik“ zentral im „Prozessor.“

    Andererseits geht es im zitierten Link auch besonders um das „Assembly“ Konzept und das Wort bzw. die „Mehrzahlform Assemblies“ kommt immerhin ungefähr 170 mal im Text vor.

    In „strengerer Form“ gab es dieses Konzept auch in höher entwickelten „Gatterschaltungen“. „Teilprozesse“ wurden örtlich im System verteilt und jeweils in bestimmten „Zeitschlitzen“ aktiviert.

    Diese Technik wurde vom „Mikroprozessorkonzept“ abgelöst. Inzwischen gibt es „Multiprozessorsysteme“…..

    • Timm Grams sagt:

      Witzig. Da machen sich frühe Computerpioniere Gedanken darüber, dass das Gehirn möglicherweise genauso funktioniert wie ihre Maschinen. Von Neumann hat sich von diesen „frühen Vorstellungen über die physikalische Funktionsweise des Gehirns leiten lassen“. Der Hinweis auf das Gehirn ist also entbehrlich, um nicht zu sagen völlig sinnlos. Von Neumann hat die Computerarchitektur, die von anderen Pionieren stammt, offenbar einfach abgekupfert. Das gehört sicherlich nicht zu den großen kreativen Leistungen des John von Neumann.

  30. Dueck sagt:

    Ich bin mehr Team Gunter Dueck, eine deutlich weniger negative Sicht auf chatgpt:

    https://www.youtube.com/live/XDcfP_TeTe0?si=0b8TCL0V8fZkEs-y

    dueck weiss wohl noch nicht das es sog. KI News oder Forums Bots gibt die alles bespielen wie es grade kommt….

    tja…

  31. Timm Grams sagt:

    @ Dueck

    Dass Gunter Dueck „eine deutlich weniger negative Sicht auf chatgpt“ hat, höre ich aus dem Podcast nicht heraus. Ich sehe die Grenzen der künstlichen Intelligenz und auch, dass ChatGPT diese Grenzen nicht überschritten hat. Fragen wir das System doch selbst: Wie hoch ist dein Intelligenzquotient?

    ChatGPT: Ich habe keinen Intelligenzquotienten (IQ), da ich keine eigene Intelligenz oder Bewusstsein besitze. Ich bin ein Computerprogramm, das auf Text basiert und auf vorherigen Informationen und Daten trainiert wurde, um auf Fragen zu antworten und Text zu generieren…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Optionally add an image (JPEG only)