I wonder if one day that,
you’ll say that, you care
If you say you love me madly,
I’ll gladly
Be there
Like a puppet on a string
Sandie Shaw
Once bitten, the apple was irresistible
Shoshana Zuboff
Fortschrittsapologeten wie Steven Pinker und Hans Rosling versuchen unermüdlich, uns davon zu überzeugen, dass es dank Aufklärung mit der Menschheit anhalten bergauf gehe. Schlagendes Beispiel sei die Lebenserwartung, die seit zwei Jahrhunderten ständig wachse (Pinker, Chapter 5). In den letzten zwei Jahrzehnten ist das Wachstum ins Stocken geraten und es gibt sogar eine Abwärtstendenz, zumindest in den USA und in Europa. Das mag Zufall sein, aber es fällt zusammen mit der Spätphase der Globalisierung und der Dominanz von Suchmaschinen im WWW.
Jetzt erreicht uns die generative künstliche Intelligenz, erst einmal in der Form von ChatGPT (Domingos, 2017). Im Hoppla!-Blog stehe ich in einem fast aussichtslosen Kampf gegen Robotertexte, wie man an vielen Kommentaren sehen kann.
Erste Widerstände gegen eine Vergötterung der Computers kamen aus dem inneren Kreis der Informatik und gehen zurück auf Joseph Weizenbaum und seine ELIZA. Aber es kam wie beim Lied »Zwei Täler weiter«: Die Parodie wurde vom Publikum nicht als solche erkannt. (Ich hoffe, ich habe Fred Rauch da richtig verstanden.)
Viele gebildete Personen haben in ELIZA eine intelligente Maschine gesehen. (Ich kann mich an einen vergnüglichen Abend mit Joseph Weizenbaum erinnern, das müsste am 27. Oktober 1999 gewesen sein. Er hatte an unserer Hochschule einen Vortrag zum Jahr-2000-Problem gehalten.)
Was treibt den Ingenieur und Informatiklehrer zum Widerstand? Wenn Sie etwas Zeit mitbringen, dann lassen sie sich das von Joseph Weizenbaum im Film Plug & Pray erklären.
Die Gefahr, dass die Maschinen wie Menschen werden könnten, besteht vermutlich nicht. Eher werden die Menschen wie Marionetten, nur dass, anders als in Sandie Shaws Lied, kaum Hoffnung auf Erfüllung der Träume und Wünsche besteht.
Das sind die Stufen der Entwicklung:
- Use it or lose it. Wollen ältere Menschen geistig fit bleiben, lösen sie Kreuzworträtsel oder Sudoku. Dabei sind Spaziergänge im Grunde das wirkungsvollere Gehirntraining. Jedenfalls ist es nicht gut, sich jede geistige Anstrengung vom Computer abnehmen zu lassen. Also: Hin und wieder einmal schriftlich rechnen oder im Kopf, anstatt immer gleich den Taschenrechner zu bemühen. Dasselbe gilt für das Navigationsgerät und die Wegefindung mittels Google. Dem steht unsere Bequemlichkeit entgegen. Denken tut weh. Dabei wächst unsere Leistungsfähigkeit dank Maschinenhilfe – aber das hat einen Preis: ein Teil unserer natürlichen Fähigkeiten verkümmert und wird durch künstliche ersetzt. Diese Tendenz weitet sich ins Unermessliche aus, wie wir sehen werden.
- Treibende Kraft ist die Werbung. Ryan Reynolds sagt es so: »Consumers know they’re being marketed to, so acknowledge it« (TIME July 7, 2025, p 39). Man habe bei ihm nicht das Gefühl, dass einem etwas aufgeschwatzt wird, meint sein Geschäftspartner. – Das ist hohe Kunst der Propaganda. Zentrales Medium ist das World Wide Web WWW.
- Instrumentarianismus. So nennt Shoshana Zuboff die Programmarchitektur zur Vorhersage, Änderung und Kontrolle des Verhaltens der angepeilten Menschen. Das soll sich schließlich auszahlen (Zuboff, S. 352). Dieser Instrumentarianismus hat seine Ursprünge im radikalen Behaviorismus des B. F. Skinner, bei dem es nur um das beobachtbare Verhalten des Menschen und nicht um seine inneren Beweggründe geht. Mark Zuckerberg sieht Facebook auf dem Weg zu einem Unternehmen, das jedes Buch, jeden Film, und jeden Song kennt, das eine Person jemals konsumiert hat (Zuboff, S. 402). Das ist dann der Grundstoff für personalisierte Werbung (Targeted Advertising). Da der Gewinn aus diesen Geschäften bei einigen wenigen landet, spricht Shoshana Zuboff von Überwachungskapitalismus.
- Generative KI. Das ist die nächste Eskalationsstufe. Diese Programme haben mit ELIZA nicht mehr viel gemein, das Maschinenhafte ist kaum noch zu erkennen. Man fragt sich, ob das Maschinenhafte dabei ist, das Menschliche vollständig zu verdrängen
- Singularität. Für einige Vertreter der KI ist ausgemacht, dass in einer nicht zu fernen Zukunft der Computer den Menschen bezüglich Intelligenz überflügeln und dann an dessen Stelle die kulturelle Evolution vorantreiben wird. Josef Weizenbaum kann mit diesem Gedanken nichts anfangen. Für ihn wird ein lebender Organismus durch die Probleme definiert, denen er sich im Laufe seines Lebens gegenübersieht. Wenn ich mich recht erinnere, hat er es so zugespitzt: Ein Computer hat, anders als der Mensch, nie an einer Mutterbrust gelegen.
Links
Vorbereitender Hoppla!-Artikel: Mit der Moderne kam die Gier
Überwachungskapitalismus Essay von Shoshana Zuboff
KI so gefährlich wie Pandemien oder Atomkrieg
Menschenzentrierte KI Wer zählt als Mensch?
Uni Wien Drohender Wissenskollaps durch KI?
ARD ChatGPT für Fake-News-Kampagnen genutzt
Literaturverzeichnis
- Steven Pinker: Enlightenment now. The Case for Reason, Science, Humanism and Progress. 2018
- Joseph Weizenbaum: Die Macht der Computer und die Ohnmacht der Vernunft, 1977
- Shoshana Zuboff: The Age of Surveillance Capitalism. 2019
- Pedro Domingos: The Master Algorithm. How the Quest for the Ultimate Learning Machine will Remake our World. 2017
KI – das süße Gift, so kann man es sehen. So wie andere „Bequemlichkeiten“, angefangen beim Fahrrad, später mit Hilfsmotor, Motorrad, Auto mit Klimaanlage, Elektrizität, Haushaltsgeräte, Heimcomputer, Internet,…. unser Leben in den letzten 100 Jahren leichter gemacht haben, wird es auch bei der KI sein, wir werden immer mehr davon abhängig.
Ich bin neugierig, welche Erkenntnisse Wissenschaftler z.B. aus dem Ukrainekonflikt gewinnen werden? Wie anpassungsfähig „der Mensch“ eigentlich wirklich ist, wie er auf Abhängigkeiten verzichten kann.
Weil die schweren körperlichen und die Umweltbelastungen (Kälte), wesentlich geringer geworden sind, dürfte die Lebenserwartung gestiegen sein. Andererseits hat die Medizin das Leben verlängernde Fortschritte gemacht.
Es scheint auch „Sättigungseffekte“ zu geben und der „Wohlstand“ steigt nicht unaufhörlich an. Zu wenig Bewegung kann auch Nachteile haben. Suchmaschinen könnten sogar „dümmer“ machen, weil das „eigene Denken“ abnimmt.
Ich benutze Google und KI zur Auffrischung meiner oft nur mehr vagen Erinnerungen. Ich kann Fakten bequem und korrekt rekonstruieren. Jedes mal im Lexikon zu suchen, wäre mir zu umständlich.
Ich meine, Joseph Weizenbaum hatte eine „sehr hohe Meinung“ über die „menschliche Denke“, die den Psychologen eher „verloren“ gegangen ist. Was auch nicht verwunderlich ist, zumal sie alltäglich mit eher skurrilen Problemen, die für Patienten recht belastend sein können, zu tun haben.
Mit ELIZA hat er eine (banale) Suchstrategie der Psychologen nachgeahmt, ohne zu wissen was die Psychologen damit wirklich machen. Er war entsetzt, als Psychologen (aus ihrer eigenen Sicht heraus) Weizenbaums „Karikatur“ vom psychologischen Handeln, auch noch ernst genommen haben…..
Ich habe mich aus Neugier, Psychologiestudenten in meiner 68 WG haben diese Neugier auch noch gefördert und weil ich zufällig die Möglichkeit hatte, für stark unterschiedliche Sichtweisen sehr interessiert. Z.B. die Sichtweise von Elektronik Entwicklern und Elektronik Service Personal. Die Herangehensweisen unterscheiden sich sehr stark, sind aber letztlich optimal für eine schnelle höchst erfolgreiche Problemlösung.
Der hauptsächliche Unterschied zwischen natürlicher und künstlicher Intelligenz ist, dass die KI (derzeit) keine „direkten Empfindungen wahrnehmen“ kann. Das Problem dürfte aber sein, dass die Empfindungen von den verschiedenen Menschen auch noch unterschiedlich bewertet werden.
Ich nehme an, dass die Expertensysteme weiter entwickelt werden und der Zugriff darauf über Chat Software erfolgt. Dabei könnten die verschiedenen Interpretationsmöglichkeiten der Ergebnisse berücksichtigt werden.
Ausblick: So wie Menschen Kreativität fördernde Mechanismen entwickelt haben, z.B. „Brainstorming Methoden“, wobei sozusagen „probeweise“ so etwas wie „Muster Mechanismen“ von fremden „Gebieten“ übertragen und auf Sinnhaftigkeit „getestet“ werden. Diese Tests sollten nicht nur von Menschen durchgeführt werden, sondern es sollten womöglich auch Simulationsmethoden entwickelt werden….
Ich weiß nicht, ob Ihre Psychologiestudenten der 68er-WG wirklich so hilfreich waren, wie sie ständig beteuern. Bekanntlich funktioniert Brainstorming schon bei Menschen nicht. Sie machen sich über ChatGPT schlau, fürchte ich. Keine gute Idee. Was die Lebenserwartung angeht: Schauen Sie sich einmal die von mir zitierte Grafik an.
Schon Justus von Liebig wies darauf hin, dass Ressourcen begrenzt sind und auch im Buch ´Die Grenzen des Wachstums´ wird dies angesprochen.
D.h. die Chancen für zukünftige Entwicklungen hängen von der Verfügbarkeit von Wasser, Anbauflächen und Rohstoffen ab.
Hinzu kommt, dass durch die Klimaveränderung höhere Temperaturen von Luft und Umwelt entstehen werden – was z.B. zum Hitzetod führen kann.
Dass es mit der Entwicklung der Menschheit weiter bergauf gehen könne – ist eine fragwürdige Idee, welche auch deshalb falsch ist, weil es die ´Menschheit´als solches nicht gibt. Sondern mit der Entstehung jedes Menschenlebens im Mutterleib und nach der Geburt, beginnt jeweils ein eigenständiges Wesen zu entstehen und (mit dem Tod) zu vergehen.
KI (Künstliche Intelligenz) bei real existierenden Maschinen ist in meinen Augen mehr ein Werbeversprechen als die Realität, ich sehe KI deshalb immer noch primär als ein Forschungsprojekt. Wenn wir bewusst denken, prozessieren wir Inhalte in Sprache. Was wir im Moment in Rechnern machen lassen, ist eher eine Mustererkennung als ein echter Sprachprozessor. Zu dem würde nämlich gehören, dass das System in der Lage ist, begründete Vermutungen zum Wahrheitswert von Aussagen anstellen zu können, aber unsere „KI“ begründet nichts, sie sammelt und bewertet nur Häufigkeiten.
Eine echte maschinelle Prozessierung von Sprache kenne ich bisher nur bei der sehr eng definierten Fachsprache Algebra. Wenn ich das zusammenfasse, dass sind wir heute mit der KI bis auf wenige sehr begrenzte Spezialgebiete gerade mal auf der Ebene der Intelligenz der übrigen Tierwelt angekommen und jedes schulreife Kind ist erheblich intelligenter als unsere tollsten Systeme. Und ich sehe nicht, dass wir dahin kommen, indem wir diese Maschinen einfach nur größer und schneller machen und sie so den Turing-Test mit einem Party-Smalltalk bestehen lassen, bei dem sie zwar die richtigen Stichwörter bringen aber nicht verstehen, was sie sagen. Das Dumme-Blondinen-Syndrom*** lässt grüßen.
Deshalb will ich nicht kleinreden, wo schon alte KI-Anstrengungen zu echten Erfolgen geführt haben. Z.B. auch der Ebene von Expertensystemen auf der Basis von Datenbanken, wo derartige Systeme in der normalen Medizin für den normalen Mediziner eine gute Unterstützung darin sind, bei unklaren Diagnosen auch an seltene Krankheiten zu denken. Auch innerhalb der Radiologie ist eine gut trainierte Bilderkennung eine erhebliche Unterstützung bei der Diagnose.
Ich selbst lasse mich bei der von mir verhassten Tätigkeit, mich mit dem Auto in mir nicht bekannten Städten oder in Industriegebieten mit häufig wechselnden Straßenführungen zu bewegen wie dem Hamburger Hafen, gerne von einem Navigationssystem führen. Zu Fuß im Gelände benutze ich das Handy zwar auch, aber nur als Karte, orientieren tu ich mich selbst erheblich besser, weil ich auch meine Möglichkeiten besser kenne.
Wenn Weizenbaum das grundsätzliche Problem aller Maschinen darin sieht, dass sie nie an einer Mutterbrust gelegen haben, bezieht er sich auf der einen Seite auf den Menschen in seinem Wesen als selbstreproduzierenden Homöostaten, auf der anderen Seite verweist er auf die sehr früh beginnende Sozialisation. Für die KI halte ich das zweite für wichtiger: Wir fahren unser System über einen über Jahre andauernden Prozess in einem in der Bandbreite stetig wachsenden Dialog mit unserer Umgebung hoch, wobei wir die neu gefundene Information ständig in ein kausales Netz der alten Informationen einordnen. Dieses Netz bildet den Hintergrund sowohl zur Prognose neuer Zusammenhänge als auch zu der Prognose neuer Elemente, die dann gesucht werden. Unser Neugierverhalten arbeitet gezielt.
Eine echte Individualität der Rechner wird uns wohl nicht drohen, bevor wir die Maschinen nicht in einer unserer Sozialisation vergleichbaren Weise hochfahren, die dann auch zu einer echten Sprachfähigkeit (s.o.) führen muss. Dabei kann es dann passieren, dass schon eine andere Reihenfolge, in der neue Informationen geladen werden, zu anderen Verknüpfungen führen, das würde dann bedeuten, dass es im Endeffekt keine zwei wirklich gleichen Rechner gäbe. Aber da sehe ich uns noch lange nicht.
*** Wer sich nicht daran erinnern kann, wird im Netz unter „Für dumme Blonde keine Hilfe“ im SPIEGEL-Archiv fündig.
@ Frank Wohlgemuth 20. Juli 2025 um 19:25 Uhr
Ich würde KI einerseits auch wie Sie als Forschungsprojekt sehen, um besonders in biologischen Systemen die Informationsverarbeitung, die hauptsächlich auf die Verarbeitung von „Empfindungen“ aufbaut, besser zu verstehen. Besonders das „Empfindungsphänomen“ sollte man besser verstehen.
Ich persönlich meine, dass C. Koch („Panpsychismus“) und G. Tononi (IIT, Integrated Information Theory) dem „Bewusstsein“ näherkommen. Deren Aussagen interpretiere ich persönlich mit meiner „Elektronikersicht“. Neuronen haben eine „Art triggernde Funktion“ wie in UND Gatterschaltungen und die Synapsen entsprechen den entkoppelnden und die Nutzsignale zusammenführen Funktionen der Dioden in derartigen Gatterschaltungen. Die Empfindungen „entstehen“ (wie auch immer) in Sensoren, die auch Signale für die weiter Verarbeitung „aussenden“.
Andererseits will man mit KI den Zugang, besonders zu Expertensystemen verbessern, eine Art von „super bequemes“, allwissendes und aktives Lexikon schaffen. Es sollte sozusagen Anfrage auf jeglichem Niveau „verstehen“ können und passende Antworten liefern. Das scheint auch der Grund zu sein, dass man vom Labor in die Öffentlichkeit gegangen ist um die Systeme alltagstauglich zu machen, indem das System mit Milliarden von Anfragen „trainiert“ wird. Das Expertenwissen wurde offensichtlich aus Expertentexten extrahiert und trainiert, die halbwegs zuverlässig scheinen.
Musteranalysen und Synthesen scheinen grundlegend in der natürlichen I. und in der KI.
Zitat: „Zu dem würde nämlich gehören, dass das System in der Lage ist, begründete Vermutungen zum Wahrheitswert von Aussagen anstellen zu können, aber unsere „KI“ begründet nichts, sie sammelt und bewertet nur Häufigkeiten.“
Wenn es explizit gewünscht wird, kann die KI auch Begründungen liefern. Ich habe mir den Spaß erlaubt, in Ihrem Sinne meiner Microsoft Edge KI (Copilot) folgende Frage zu stellen:
„Kann die KI begründete Vermutungen zum Wahrheitswert von Aussagen anstellen? Beispiele?“
Ich meine, die KI hat bei mir recht gute Antworten geliefert. (Prof. Grams will keine KI Antworten im Blog).
Nicht nur die Algebra, auch Programmiersprachen „verlangen“ die Einhaltung eines strengen Formalismus um Fragen möglichst eindeutig beantworten zu können. Allerdings kann man bei der KI keine absolut eindeutigen Antworten erwarten. Das ist der Unterschied zu den „üblichen“ Antworten der Computer.
Die Erfolge der KI Expertensysteme in der Medizin sind natürlich sehr beachtlich.
Wenn man die KI als „selbstreproduzierenden Homöostaten hochfahren“ will, erhält man zwar eine hohe Kreativität, aber man handelt sich auch viele Probleme ein. (3 Juristen 4 Rechtsmeinungen).
Mit künstlichen Zufallsgeneratoren könnte man die „Variabilität“ noch extrem stärker „Richtung unendlich“ erhöhen. Das würde auch extrem leistungsfähige Selektionsmechanismen erfordern.
@Realo
Es war wissenschaftsgeschichtlich wohl häufiger so, dass die Fortschritte in der Neurologie die KI befruchtete als umgekehrt und ich schätze, dass es auch so bleiben wird.
Wir haben bereits ein „„super bequemes“, allwissendes und aktives Lexikon“ für alle. Das ist der 57-bändige Brockhaus für alle mit Namen Wikipedia. Dieses Lexikon unterstütze ich sowohl finanziell auch durch Nutzung, indem ich auf Fehler aufmerksam mache, die ich finde (es waren bisher nur sehr wenige). Als meine Kinder anfingen zu „googeln“ habe ich mich erstmal mit ihnen zusammengesetzt und ihnen gezeigt, dass Wikipedia grundsätzlich die besser Wahl ist als Google, wenn es darum geht, seriöse Informationen zu suchen. Das war erfreulicherweise auch erfolgreich.
Wer immer auf meinen Beitrag geantwortet hat, der User Realo oder irgendein ChatBot, demonstriert mit diesem Konditionalsatz in der Antwort nicht unbedingt ein überragendes Leseverständnis.
Mit der KI ist es genau so wie mit einem Messer – man kann dieses zum Brot schneiden verwenden aber auch Jemand damit töten. D.h. es liegt nicht an der KI sondern am Benutzer, wie die neuen Möglichkeiten der künstlichen Intelligenz benutzt werden.
Weil die Bundesregierung die Rüstungsausgaben von 2 % des BIP auf 5 % erhöhen will – haben ich http://www.perplexity.ai gefragt „Welche ökologischen und sozialen Auswirkungen hat es, wenn Deutschland die Rüstungausgaben um 3 % erhöht?“.
Innerhalb von wenigen Sekunden wurde eine sehr interessante Antwort angzeigt. ABER – es liegt jetzt an mir, die vorgestellten Inhalte zu prüfen, zu hinterfragen bzw. zu bewerten.
Mit diesem Beispiel zur aktuellen Tagespolitik kann gezeigt werden, dass KI-Programme sehr schnell brauchbare Anregungen für Diskussionen liefern. Die Verantwortung – was man damit macht – liegt aber immer noch beim menschlichen User.
Von jemandem, der sich selbst Realo nennt, erwarte ich, dass er die Ideen Tononis zumindest kritisch beäugt. Ich dachte, das Thema hätten wir schon seit Jahren durch.
Woher kommt der Verdacht, dass generative KI der Erforschung dient, »um besonders in biologischen Systemen die Informationsverarbeitung, die hauptsächlich auf die Verarbeitung von „Empfindungen“ aufbaut, besser zu verstehen«?
Vergessen wird in der Diskussion, dass die unglaublich hohen Investitionen in die generative KI sicherlich nicht allein aus irgendwelchen Forschungsinteressen gemacht werden, sondern dass es dabei vor allem um viel Geld, Macht und Einfluss geht.
@ Frank Wohlgemuth 21. Juli 2025 um 19:39 Uhr
Mir ist schon klar, dass es Wissenschaftler gibt, die möglichst viele Informationsquellen für ihre Arbeit nutzen. Manche halten die KI für „Teufelszeug“, damit wollen sie nichts zu tun haben.
Es war schon immer so, dass die „ganz Vornehmen“ nur die „Encyclopædia Britannica“ genutzt haben. Ich hatte früher, als ich aus Bildungsgründen in einer 68er WG gelebt habe, nicht viel Geld und ich habe ins besonderes in einem Psychologie Taschenlexikon begeistert geschmökert. Heute nutze ich eben aus Bequemlichkeit Wikipedia und Google….
Um Ihren Vorwürfen vorzubeugen, habe ich die kritisierte, metaphorisch gemeinte Stelle unter Anführungszeichen gesetzt.
[Moderator: Freischwebende Spekulationen und Metaphern ohne Realitätsbezug – sprich: Erfahrung – sind auf Dauer nervtötend.]
Die Einschätzung, wie KI unser Leben verändert wird, ist im Wandel. In den Axios-Spätnachrichten von gestern lese ich:
Da wir schon beim Thema Vertrauen (Trust) sind. Axios meldet gerade:
Das Video
AI-verfilmte Wunschträume. Das ist genau das Niveau, auf dem wir uns die politischen Auseinandersetzungen wünschen.
AOC wird jetzt wohl mit einem AI-gemachten Video antworten müssen, in dem unter dem Motto „Der Teufel holt sie alle“ gezeigt wird, wie Trumps Füße platzen und grüner Schleim aus ihnen quillt, bis von Trump nur eine flache Hülle übrig ist, die dann zu Staub zerfällt.
@ Timm Grams 21. Juli 2025 um 17:20 Uhr
Zitat: „Von jemandem, der sich selbst Realo nennt, erwarte ich, dass er die Ideen Tononis zumindest kritisch beäugt.“
Das möchte ich hier versuchen.
Tononi arbeitet in seinem Job als Neurologe/Psychiater nahe am Bewusstsein. Seine „Φ (Phi) Mathematik“ scheint angreifbar, reicht im weitesten Sinne zumindest dafür, messen zu können ob ein Patient ausreichend bewusstlos ist um operiert werden zu können….
[…]
Wikipedia: „Dieser Theorie zufolge entsteht Bewusstsein dann, wenn ausreichend „integrierte“ Information vorliegt.“
[…]
[Moderator: Reduziert auf den zentralen Gedanken, dass Φ misst, inwieweit Bewusstsein vorliegt]
Die Frage ist doch nicht, ob Bewusstsein vorliegt. Es geht um Inhalte und Fähigkeiten. Und dazu sagt Tononis Theorie nichts.
@Realo @Grams
Vor kurzem wurden Ergebnisse einer 7-jährigen Forschungsarbeit vorgestellt – in der untersucht wurde ob die Global Workspace Theory oder die Integrated Information Theory besser geeignet sind, um ´Bewusstsein´ zu erklären.
DOI: 10.1038/s41586-025-08888-1 Adversial testing of global workspace and integrated information theories of cosnciousness
http://www.science.de/news/psychologie/wie-entsteht-unser-bewusstsein
Dass kein vernünftiges Ergebnis herauskam, braucht nicht zu erstaunen. Denn allein beim Phänomen ´Nahtod-Erfahrung´(NTE) ist deutlich erkennbar, dass unser Gehirn dabei neun (!) unterschiedliche Strategien anwendet um eine/n Reiz/Gedanken/Situation verarbeitet. D.h. Man hätte VOR Beginn dieser Forschungsarbeit klären müssen, welche dieser Strategien man untersuchen will
Im Rahmen von NTEs kann man direkt + live + bewusst erleben, wie das Gehirn arbeitet. Aber ausgerechnet NTEs werden von der Forschung nicht beachtet! Man wird die Arbeitsweise des Gehirns niemals verstehen, wenn man ausgerechnet den direktesten – da bewusst erlebbaren – Zugang dazu nicht erforscht!
@ Timm Grams 23. Juli 2025 um 10:59 Uhr
Psychiater, wie Tononi, sind an Bewusstseinsinhalten ihrer Patienten interessiert um ihnen bei psychischen Problemen helfen zu können.
Ich würde Tononis IIT so verstehen, dass sich innerhalb eines psychischen Systems eine spezifische Struktur integrierter Information und Empfindungsfähigkeit aktiviert, was man Bewusstsein nennt. Es beruht auf verknüpfte Ursache- Wirkungs- Beziehungen und dürften das physikalische Korrelat des subjektiven Erlebens sein.
Ich stelle es mir wie ein elektronisches (Gatter-) oder neuronales Netzwerk vor, das über einer Sensorik Information abbildende Signale empfängt (z.B. über die Augen), sie verknüpft und zur „Bewusstseinsanzeige“ bringt. Doch nicht überall entsteht dabei ein Gefühl: Empfindungen entstehen nur an ausgewählten, „zweckmäßigen“ Stellen – z. B. in der Netzhaut, Haut oder bestimmten Gehirnbereichen. Dies sollten zusätzliche „Empfindungssensoren“ bewirken.
Diese speziellen „Empfindungssensoren“ – eine hypothetische Ergänzung zu den üblichen Sensoren – könnten erklären, warum manche Signale als reine Information wahrgenommen werden, andere jedoch als subjektives Erleben.
Wie auf der Netzhaut, wenn in die elektrische Signale aussendenden Zapfen und Stäbchen, recht offensichtlich, zusätzlich „Empfindungssensoren eingebaut“ sind, oder die Zapfen/Stäbchen „Doppelfunktionen“ haben. Ich vermute mit hoher Wahrscheinlichkeit, dass meine visuellen Empfindungen, die „dummen nicht verarbeiteten Bildeindrücke“, direkt im Auge (Netzhaut), nach einer optischen Aufbereitung entstehen.
Die Neuronen und Synapsen „erledigen“ die erforderliche Informationsverarbeitung, die (Zwischen)Ergebnisse werden an bestimmten Stellen zur „Anzeige“ gebracht. Die Empfindungssensorik die offenbar nur an „zweckmäßigen Stellen“ vorhanden ist, sorgt für die Empfindungen….
Z.B. an der Oberfläche der Körperhaut sind offensichtlich auch „Empfindungssensoren“ zweckmäßig um Störungen zu melden. Auch an den „Anzeigen“ sollte es eine „Gefühlssensorik“ geben, selbst das „Magengefühl“ scheint aus naheliegenden Gründen wichtig. Bei jedem Neuron wären „Empfindungssensoren“ offensichtlich unnötig.
Im Bewusstsein, werden die „Anzeigesysteme“ (von der Netzhaut, Körperhaut, Hirnhaut, und besonderen Bereichen,….) die im Körper verteilt sind, zusammengeführt. Es sind Informationen und Empfindungen, die integriert, realisiert und in einem sinnvollen örtlichen und zeitlichen Zusammenhang gebracht werden.
Für die „Realisierung des Bewusstsein“ sollten sich flächige Strukturen, aber auch bestimmte räumliche Strukturen eigenen, wenn an bestimmten Punkten eine Vielzahl an synchronen Impulsen („Wellen“) einlangen die besonders auch zeitliche Zusammenhänge definieren.
Bewusstsein ermöglicht die Fähigkeit, auf die komplexe Umgebung planmäßig und vorbeugend zu reagieren, nicht nur z.B. die Hand erst dann instinktmäßig zurückzuziehen, wenn man sich bereits die Finger verbrannt hat….
@ Realo
Um nur mal grob zu skizzieren, was wir von dem wissen, wovon Sie reden:
Wir haben keine Ahnung, wie die Reize, die wir wahrnehmen, im Gehirn repräsentiert werden, von der Verarbeitung gar nicht zu reden. Selbst wenn wir davon ausgingen, der Sehvorgang fände im Auge statt – das ist nicht ganz so albern wie z.B. beim Tastsinn, weil es sich beim Vertebraten-Auge im Grunde genommen um eine Ausstülpung des Gehirnes handelt – wüssten wir noch nicht, wie wir Bilder vergleichen können: Im Augenhintergrund haben wir nur eine Sinneszelle pro „Pixel“.
Aber unser optischer Sinn ist nur einer von mehreren und Gefühle sind etwas ganz anderes als Wahrnehmungen – es dürfte beim Menschen keine Gefühle geben, die nicht kulturell übersteuert sind, auch die basalen wie Schmerz nicht. Ich habe keine Ahnung, ob der von Ihnen so geschätzte Tononi davon schreibt, aber es ist möglich, durch Psychotherapie die Schmerzempfindung zu verändern. Das ist nichts was man kontrolliert tun kann, aber man kann es beobachten. Bei Schmerzen kennen wir immerhin spezifische Sensoren, wie auch für Wärme und Druck, wobei der „Schmerzsensor“ den Schmerz nicht wahrnimmt, sondern nur zentralnervös auslöst, wahrnehmen tut er letztlich physikalische Bedingungen, die so weit vom Soll entfernt sind, dass Flucht die normalerweise rettende Reaktion ist. Für andere Gefühle gibt es keine Sensoren – etwa die berühmten religiösen Gefühle sind eine rein kulturelle Veranstaltung.
Wenn Sie dann auch noch zum Thema Bewusstsein und Denken kommen, indem Sie von Bewusstseinsinhalten sprechen, dann sind sie soweit von irgendwelchen bekannten oder postulierten „neurologischen Korrelaten“ entfernt, dass da nur Unsinn herauskommen kann, wenn Sie versuchen, das zusammenzubringen.
Um mal einen mit Sicherheit stark vereinfachenden technischen Vergleich zu ziehen, den Sie zumindest ansatzweise vielleicht nachvollziehen können: Sie versuchen gerade, die in der Zukunft liegende Verfügbarkeitsprüfung für ein bestimmtes Material in einem verteilten ERP mit aktivem supply chain management auf der Basis punktueller Elektronendichten in einem der beteiligten Prozessoren zu erklären.
Die neurologische Grundlagenforschung ist von menschlichen Gefühlen und menschlichem Bewusstsein erheblich weiter weg als die Prozessorentwicklung von der KI. Sie werden nicht darum herumkommen, sich auf die Ebene(n) der Daten und Programme zu begeben und die elektronische komplett zu verlassen, wenn Sie beginnen wollen, etwas zu verstehen.
In meinem Artikel geht es darum, wie künstliche Intelligenz die natürliche ersetzt und welche Folgen das für die Menschen haben kann. Inwieweit auf Seite des Menschen oder auch auf Seite der Maschinen Bewusstsein beteiligt ist, mag den Science-Fiction-Autor interessieren und auch den Gehirnforscher. Mir geht es um Beobachtbares, Erfahrbares, Mitteilbares, sozusagen um die Oberfläche, um das Diesseits.
Von Tiefenbohrungen, wie sie Realo und Richard Kinseher anstellen, war in diesem Hoppla!-Blog bereits die Rede – ausführlicher noch in Stephan Schleims Blog MENSCHEN-BILDER.
Dass es Bewusstsein gibt, merken wir. Tononi folgend lässt sich sogar objektiv feststellen, wann es aktiv ist. Wie die Korrelate des Denkens mit den Denkinhalten zusammenhängen, bleibt ein Rätsel. Korrelation ist eben nicht Kausalität. Das haben wir aber schon festgestellt und muss hier nicht noch einmal ausgebreitet werden.
Für Versteckspiele bin ich nicht zu haben, deshalb hier die Klarstellungen: KRichard alias Richard Kinseher, Elektroniker alias Realo. Ich war auch einmal Till; das habe ich inzwischen bereut.
@Grams
Ich halte auch nichts von Versteckspielen – deshalb habe ich auch als KRichard bei SciLogs meinen Echt-Namen KinseherRichard genannt
Zum Blogthema: Ich vertrete klar die Meinung, dass wir (Menschen) als Nutzer von KI auch die Verantwortung dafür übernehmen müssen was dabei herauskommt. Z.B. Wenn uns ein KI-Programm irgendwelche Inhalte veröffentlicht, müssen wir nachprüfen ob diese richtig bzw. falsch sind. Und wenn man fahrerlose Autos auf der Straße fahren lässt, muss geklärt werden, wer für Unfälle die Haftung übernimmt.
Wir können nicht der KI die Schuld/Verantwortung für eventuelle Konsequenzen geben!
Zum Thema ´Bewusstsein´: Auch hier war und ist meine Meinung sehr deutlich – Wir werden nie verstehen, was ´Bewusstsein´ ist, wenn man ausgerechnet den direktesten Zugang zu unseren bewussten Erfahrungen nicht untersucht.
Wir leben in der Illusion, den Informationsfluss kontrollieren zu können und gegen die Verführungen der Werbung gewappnet zu sein. Aber wir sind schlechte und vor allem faule Kontrolleure (Lazy Controller). So sagt es Daniel Kahnemann. Werbung und Propaganda funktionieren. Woran man das sehen kann? Leute wie Bill Gates, Larry Page, Jeff Bezos, Mark Zuckerberg, Satya Nadella sind damit außerordentlich reich geworden. Sie erhalten die Belohnung dafür, dass die Leute Dinge kaufen, die sie im Grunde nicht brauchen. Einmal angebissen, ist der Apfel unwiderstehlich.
@ Frank Wohlgemuth 24. Juli 2025 um 12:00 Uhr
Zu den von Ihnen aufgeworfenen Fragen gab es in Foren von Prof. Schleim interessante Diskussionen. Beispiel der u.a. Link. Stichwort: Elektroniker. (Bitte allenfalls suchen)
[Moderator: Gekürzt um alles, was nicht zum Thema gehört]
Das Angebot an digitaler Information überschreitet unsere Fähigkeit, deren Sinn zu erfassen.
Das Internet ist ein riesiger Müllhaufen mit ein paar wenigen Perlen darin. Weniges ist glaubwürdig. Dieses Wenige aufzufinden, wird nahezu unmöglich gemacht. Zentrales Problem ist die schiere Masse an Text und Bildern. Künstliche Intelligenz steigert diese Masse ins Unermessliche. Wir ertrinken in Irrelevanz. Was dagegen tun?
Aktionen wie das Abschalten der Übersicht mit KI, die neuerdings standardmäßig als erstes Ergebnis der Google-Suche erscheint, zeigen eigentlich nur unsere Hilflosigkeit.
Zur KI zähle ich die frühen Rechenhilfen wie die Computer des Konrad Zuse und erste Chatbots wie ELIZA.
Das Hauptproblem der Computerisierung unseres Lebens habe ich benannt: Das Maschinenhafte droht, das Menschliche vollständig zu verdrängen. Der von mir hochverehrte Konrad Zuse sagte, warum er den Computer erfunden habe: »Ich war einfach nur zu faul zum Rechnen.« Heute sehen wir, wie aus den Wohltaten ein Fluch wird: Ein Teil unserer natürlichen Fähigkeiten verkümmert und wird durch künstliche ersetzt.
In aktuellen Spiegel (Nr. 32, 1.8.2025) lese ich: »Künstliche Intelligenz dringt in das Reich der menschlichen Gefühle vor.« auf Seite 96 wird Martina Mara zitiert, Professorin für Künstliche Intelligenz und Robotik an der Universität in Linz:
Der Mensch dürfe jedoch nicht die Lust verlieren, sich mit jemandem zu streiten.
@ Timm Grams 8. August 2025 um 14:58 Uhr
[…]Werde meine KI Testen, ob sie auch kontroverser reagieren kann um stärker herausgefordert zu werden und um einen besseren Trainingseffekt zu erzielen, so wie beim Training mit Bleiwesten…
[Moderator: Den KI-Flachkram habe ich herausgestrichen.
Wessen Meinung ist es, die da vertreten wird? Sind Sie sicher, dass Ihre KI bei der Meinung bleiben wird? Sind die Aussagen in ein Gesamtgebäude eingebunden, das in sich konsistent ist? Wen oder was würde Ihre KI wählen? Unter welchen Bedingungen könnte Ihre KI die Einsicht gewinnen, dass sie ihre Überzeugung ändern, ihr Gedankengebäude sozusagen umgestalten sollte?
Wenn Sie weiterhin mit KI-Texten kommen, steigt das Risiko, dass Sie gesperrt werden.]
@ Timm Grams
Zitat: „Wessen Meinung ist es, die da vertreten wird? Sind Sie sicher, dass Ihre KI bei der Meinung bleiben wird? Sind die Aussagen in ein Gesamtgebäude eingebunden, das in sich konsistent ist?“
Es ist eine fiktive Meinung, die am wahrscheinlichsten vom „Kunden“ erwartet wird. Wie praktisch immer im Geschäftsleben. Ein Geschäftsmann ist erfolgreich, wenn er schnell „psychologische Muster“ des Geschäftspartners abschätzt und sich sofort darauf einstellen kann….
Wenn eine KI z.B. als „harter Trainingspartner“ für Diskussionen herhalten soll, wird sie das tun, jedenfalls solange das Geschäftsmodell funktioniert. Im Prinzip könnte sie sich auch verhalten, wie z.B. Goethe, sozusagen in seine Identität schlüpfen. Normalerweise „spielt“ KI einen halbwegs intelligenten „Klugschwätzer“ vor.
Ich habe den Eindruck, KI bemüht sich um Konsistenz im Umgang mit den Kunden. Allerdings sind mir Inkonsistenzen aufgefallen. Drängt man KI in die „Enge“, neigt sie zum Halluzinieren und erfindet einfach Blödsinn….
Ich nutze Google und die Wikipedia um Fakten (Schreibweisen) abzugleichen und KI um allenfalls nur mehr vage Erinnerungen aufzufrischen.
Das Grundprinzip der KI, Musteranalysen – Synthesen anzustellen, wurde mir im Alter von rund 15 Jahren vermittelt und ich nutze dieses Konzept sozusagen auch „bewusst und gewohnheitsmäßig“ im Alltag.
Ich bevorzuge eine möglichst sachliche „Denke“, irgendwie angelehnt an die „private Denke“ von Psychologen. Ich neige auch dazu, meine Texte mit „Anekdötchen“ als kleiner „Gag“, zu ergänzen, was Sie offenbar gar nicht schätzen. Tut mir leid.
[Moderator: Niemand kann Ihnen verbieten, KI zu nutzen, um »allenfalls nur mehr vage Erinnerungen aufzufrischen.« Im Hoppla!-Blog sind diese Ergüsse unerwünscht.]
@ Realo
Wer sich mittels generativer KI »schlau macht«, setzt sich einer erhöhten Gefahr aus, in einer Echokammer zu landen. Auch als Erinnerungshilfe scheint sie mir nicht gut geeignet zu sein. Ich sehe die Gefahr darin, dass sich Erinnerungsirrtümer und Scheinerinnerungen verfestigen können.
@ Timm Grams
Diese Gefahr besteht aber nicht erst seit der generativen KI. Auch früher hat Google schon immer genau das geliefert, was man gesucht hat, wenn man nicht gelernt hatte, die Frage zu einem Thema zu verallgemeinern, bzw. sich für die signifikanten Schlüsselwörter zu entscheiden, oder auch nach dem Gegenteil der eigenen Vermutung zu suchen.
Auch dann bedeutete das, dass man zum Sichten der Liste, die Google lieferte eigentlich bereits die Expertise brauchte, die man mit Google erst erwerben wollte.
Die generative KI dürfte diese Gefahr allerdings gewaltig verstärken. Recherche ist etwas Anderes.
@ Timm Grams 9. August 2025 um 15:48 Uhr
Der Versuch konsistent im Bezug auf den jeweiligen Kunden zu sein, könnte die Gefahr in eine Echokammer zu geraten verstärken.
Vor mehreren Jahren habe ich einen Bericht gelesen, in dem erläutert wurde, wie ein tschechischer Informatiker einen Algorithmus entwickelt hat, der die „assoziative Nähe von Worten“ statistisch ermitteln kann. (Ähnlich wie im assoziativen Gedächtnis).
Das dürfte der größte und entscheidende Fortschritt gewesen sein im Bezug auf die Chat KI. Das hat mir die Wikipedia damals bestätigt. Aus meiner Erinnerung meine ich, dass der Informatiker mit Vornamen „Frantisek“ hieß, jedenfalls Tscheche war. Ich habe es immer wieder, auch mit KI versucht, den Aufsatz wieder zu finden, es ist mir nicht gelungen. Meine Schlüsselworte sind offensichtlich zu vage.
Die KI hat einfach halluziniert. In der Wikipedia konnte ich nur noch ermitteln, dass die vorgeschlagenen Namen falsch waren.
Früher hatte man überhaupt keine Möglichkeiten, ohne präzise Begriffe (Stichwort: Wortfindungsstörungen im Alter) an Informationen zu kommen…..
@ Realo
Was wollen Sie mit Ihrem Kommentar sagen? In Kurzform:
»Früher hatte man überhaupt keine Möglichkeiten, ohne präzise Begriffe an Informationen zu kommen,« heute hat man wenigstens die Möglichkeit, sich aufs Glatteis führen zu lassen.
Ein Beispiel für den Quatsch, der entsteht, wenn man mit der generativen KI in „Gedankenaustausch“ tritt, ist der folgende Kommentar vom 9. Aug. 2025, 12:07, den ich in der Rolle des Moderators gestrichen habe:
Bereits die Frage ist unsinnig. Antwort der generativen KI ist wie üblich eine glattgebügelte höfliche Antwort und ebenfalls ohne Sinn. Das Leben ist unverhofft; es hat mit anderen Menschen zu tun; Argumentationsmuster kann man trainieren, Meinungen nicht.!
Wenn es um die Klärung des Sachfragen geht, wendet man sich an ein Lexikon und eins der besten scheint zur Zeit die Wikipedia zu sein. Die generative KI ist dabei nicht hilfreich. Sie hat das Potential zur Irreführung.
@ Timm Grams 10. August 2025 um 09:25 Uhr
Zitat: „Das Leben ist unverhofft; es hat mit anderen Menschen zu tun; es ist kein Training!“
In meiner Umgebung ist mir hauptsächlich bei besonders begabten Mitschülern, oder später auch Kollegen aufgefallen, dass sie ohne jegliches Training, beste Intelligenzleistungen erbringen konnten, aber nicht wussten warum sie dazu befähigt waren. Das galt auch für andere Befähigungen und mich haben, als besonders neugierigen Menschen, die Ursachen interessiert.
Ein Mensch sollte aktiv sein, kann alles, nicht nur körperliche Fähigkeiten, „trainieren“. Z.B. auch geistige Fähigkeiten. Es gibt Künstler, die haben sich gegenseitig „hoch gepusht“ um besser zu werden als die Konkurrenz.
In den Sportvereinen (Leichtathletik, Schützen, …. bis zum Pferdesport), in Kulturvereinen (Theater, Chören,…), in der Schule (Hausaufgaben, Redeübungen,…), selbst am Arbeitsplatz (Konkurrenz,….) praktisch überall wird „trainiert“ um besser zu werden…..
Ich habe mir sogar den Spaß erlaubt, IQ Tests zu trainieren. Nur war es mir zu blöd, mein ganzes Leben auf jegliche Äußerung von mir und mein Auftreten genau zu achten….
Ich befürchte, wenn ich aufhöre zu „trainieren“, z.B. Diskussionen (allenfalls sogar mit KI) oder mit den Spaziergängen, ist es schnell aus mit mir……
Übrigens: Lese gerade im ZDF Teletext Seite 154: „Künstliche Intelligenz: OpenAI – Chef warnt vor Abhängigkeit“.
Was man trainieren kann, spielt in diesem Blog keine große Rolle. Ich akzeptiere auch ungelenke Formulierungen. Das Hoppla!-Blog ist kein Fitnesscenter. Mir geht es um den Meinungsaustausch zwischen Menschen, die gemäß Art 1 GG mit Würde ausgestattet sind.
Ich rate nicht davon ab, Fähigkeiten zu trainieren. Ich rate dazu, von der KI die Finger zu lassen.
@ Timm Grams 8. August 2025 um 14:58 Uhr
Auf Phönix wurde heute (wieder einmal) über die Sicherung des Rentensystems diskutiert. Letztlich läuft es meistens darauf hinaus, dass Kapitalanleger „Pensionseinzahler“ abzocken wollen.
Und da kommt mir Karl Marx in den Sinn.
Maschinen, Roboter, KI, also besonders die „Elektrizität“, kann Menschen bestens und extrem produktiv bei der Arbeit „unterstützen“. Offensichtlich hat das schon Karl Marx bestens erkannt. Ihm war damit auch klar, dass „kommunistische Wohltaten“ niemals Realität werden können, weil die menschliche Produktivkraft alleine niemals ausreichen würde, die Wünsche auch nur annähernd zu befriedigen.
Jetzt sind wir endlich so weit, dass nicht nur schwerste, die Gesundheit schädigende Arbeit substituiert werden kann, sondern auch geistige Arbeit.
Letztlich sollt die Politik darauf achten, dass die Produktivität gesichert werden muss um den Wohlstand für alle Menschen zu erhalten.
Das ist in der Hauptsache Angelegenheit der Unternehmer.
Es kommt aber besonders darauf an, die technischen Hilfen (samt KI) bestens produktiv und nutzbringend, nicht nur für das Kapital, sondern für alle Menschen einzusetzen. So dass sie von allen Menschen als willkommene Helfer und nicht als „Schmutzkonkurrenz“ betrachtet werden.
Bedeutet, es sollten „Sachsteuern“ eingeführt werden, die hauptsächlich auf „Ausbeutung“ von ohnehin vorhandenen Maschinen beruht.
Diese Güter und Dienstleistungen sollten über eine Art von Gutscheinsystem hauptsächlich für Pensionisten (Güter) und Schüler (KI Lernmaschinen) zur Verfügung gestellt werden, ohne den „Geldumsatz“ der Firmen zu schmälern.
Derartige zusätzliche Systeme zu verwalten, sollte für KI kein Problem sein. Und die soziale Frage könnte einer Lösung näher kommen.
Der Ausspruch »Sozialismus bedeutet die Diktatur des Proletariats plus Elektrifizierung des ganzen Landes« stammt von Lenin und nicht von Marx (Karl R. Popper, Die offene Gesellschaft und ihre Feinde 2, 1958/1980, Der ökonomische Historizismus III, S. 136). Lenins Gedanke wird oft so wiedergegeben: »Kommunismus – Das ist Sowjetmacht plus Elektrifizierung des ganzen Landes.« Anders als Marx, der den materiellen Unterbau als primär ansieht, betont Lenin die Macht der Idee. Der Marxismus wird zu Ideologie. Das Resultat kennen wir, u. a. den Holodomor in der Ukraine.
Ihre Vorschläge gemahnen an Planwirtschaft. KI wird zum Instrument einer Ideologie. Ich stell‘ sie wieder auf die Füße: Die KI kommt von allein. Skeptizismus ist für mich eine sinnvolle Haltung dazu.
Im Artikel geht es nicht um Gesellschaftssysteme, sondern um die Auswirkungen der generativen KI auf das Individuum.