In diesem Hoppla!-Artikel will ich die Überschneidung von Quantenphysik, Informationstheorie und der Entstehung von Innovation diskutieren. Diese Bereiche beruhen alle auf dem Konzept der Information als abstrakte, aber dennoch greifbare Entität, die auf verschiedene Weise manipuliert und reproduziert werden kann.
Im Mittelpunkt dieser Diskussion steht das Konzept eines physischen Substrats – des Mediums, über das Informationen übertragen und gespeichert werden. Im digitalen Zeitalter haben wir uns daran gewöhnt, Informationen als etwas rein Abstraktes zu betrachten, das nur im Bereich der Bits und Bytes existiert. Dabei wird jedoch übersehen, dass auch digitale Informationen letztlich durch physische Objekte repräsentiert werden – zum Beispiel durch magnetische Ladungen auf einer Festplatte.
Die Quanteninformation hebt dieses Konzept auf die nächste Ebene und nutzt die Prinzipien der Quantenphysik, um Informationen in den Eigenschaften subatomarer Teilchen zu kodieren. In einem Quantensystem kann der Zustand eines Teilchens manipuliert werden, um ein Informationsbit darzustellen – aber aufgrund des Phänomens der Superposition kann dieses Teilchen tatsächlich mehrere Informationsbits gleichzeitig darstellen.
Dies bringt uns zum Konzept der Entropie, das den Grad der Unordnung oder Zufälligkeit in einem System beschreibt. In der klassischen Informationstheorie ist die Entropie ein Maß für die Unsicherheit, die mit einem bestimmten Datensatz verbunden ist. Im Quantenbereich werden die Dinge jedoch komplexer – aufgrund der Überlagerung von Quantenzuständen gibt es mehrere mögliche Zustände, in denen sich ein Quantensystem zu einem bestimmten Zeitpunkt befinden kann, wobei jeder Zustand mit einer eigenen Wahrscheinlichkeit verbunden ist. Das bedeutet, dass sich das Konzept der Entropie in der Quantenwelt eher auf die Beziehungen zwischen den Zuständen als auf die Zustände selbst bezieht.
Trotz des abstrakten Charakters der Information unterliegt sie immer noch bestimmten physikalischen Zwängen. So ist beispielsweise der Prozess der Replikation – die Fähigkeit, eine Kopie einer bestimmten Information zu erstellen – durch die uns zur Verfügung stehenden physikalischen Ressourcen begrenzt. Wir können nur eine bestimmte Anzahl von Kopien einer Datei erstellen, bevor uns der Speicherplatz ausgeht oder die Qualität der Kopien nachlässt.
An dieser Stelle kommt das Konzept der Interoperabilität ins Spiel. Damit Informationen nützlich sind, müssen sie mit anderen Systemen interagieren und von anderen Agenten verarbeitet werden können. Interoperabilität ist die Fähigkeit verschiedener Systeme, nahtlos zusammenzuarbeiten, so dass Informationen frei zwischen ihnen fließen können. Dies ist eine wesentliche Voraussetzung für die Vervielfältigung und Verbreitung von Informationen und ein Schlüsselfaktor für das Entstehen von Innovationen.
Beim Innovationsprozess geht es im Wesentlichen um die Schaffung neuer Ideen und Konzepte. Dabei werden häufig Analogien verwendet, d. h. es werden Verbindungen zwischen scheinbar nicht zusammenhängenden Dingen hergestellt, um neue Erkenntnisse zu gewinnen. Die Kategorientheorie, ein Teilgebiet der Mathematik, das sich mit der Untersuchung abstrakter Strukturen und Beziehungen befasst, ist für diesen Zweck besonders nützlich. Indem wir gemeinsame Muster und Beziehungen zwischen verschiedenen Konzepten erkennen, können wir neue Ideen und Modelle entwickeln, die es uns ermöglichen, über alte Probleme auf neue Weise nachzudenken.
Natürlich ist der Prozess der Innovation nicht ohne Herausforderungen. Eine der größten ist das Problem der „bekannten Unbekannten“ – der Dinge, von denen wir wissen, dass wir sie nicht kennen. Um Fortschritte zu erzielen, müssen wir diese Lücken in unserem Wissen erkennen und beseitigen. Dies erfordert ein gewisses Maß an Intuition – die Fähigkeit, Muster und Zusammenhänge zu erkennen, die vielleicht nicht sofort offensichtlich sind.
Aber selbst mit Intuition sind unserer Fähigkeit zur Replikation und Innovation Grenzen gesetzt. Das Entstehen neuer Ideen und Strukturen wird häufig durch die Eigenschaften komplexer Systeme bestimmt, die sich nur schwer vorhersagen oder kontrollieren lassen. Hier kommt das Konzept der Emergenz ins Spiel – die Idee, dass komplexe Systeme Eigenschaften aufweisen können, die in ihren einzelnen Komponenten nicht vorhanden sind. Wenn wir diese emergenten Eigenschaften verstehen, können wir damit beginnen, neue Modelle und Rahmenbedingungen für Innovationen zu entwickeln.
Das maschinelle Lernen ist ein Bereich, in dem das Konzept der Emergenz besonders relevant ist. Algorithmen des maschinellen Lernens sind darauf ausgelegt, Muster und Beziehungen in großen Datensätzen zu erkennen, aber das Entstehen neuer Erkenntnisse geschieht oft auf unerwartete Weise.
Quellen
Dieser Text wurde, abgesehen von den ersten sieben Wörtern, von ChatGPT erstellt und von DeepL übersetzt. Mein Auftrag an ChatGPT lautete folgendermaßen:
Would you please write a text containing the following terms and containing about one thousand words:
intentional agent
quantum information
physical substrate
information
abstract
clone
theory of information
quantum physics
interoperability
entropy
intuition
replication
emergence
replication
self
intentional
analogies
known unknowns
emergence of innovation
category theory
machine learning
science
enlightenment
Die Stichwörter habe ich dem Text A New Theory of Information Emergence entnommen.
Was steckt hinter ChatGPT&Co?
Artikel von Manon Bischoff, Spektrum der Wissenschaft 5/2023, S. 58-69
Waren Sie schonmal im HNF?
Ich denke darin könnte jemand wie Sie mehrtägig drin verbringen und sich den Kopf zerbrechen und die Ausstellung würdigen, die Karte gilt für zwei Eintritte…
https://www.hnf.de/home.html
Bereits mehrmals war ich im HNF, schon von Berufs wegen. In der Fachwelt kennt man mein Z1-Addierermodell des ersten Zuse-Rechners. Alles rein mechanisch. Zu besichtigen im Zuse-Museum Hünfeld. Dort können Sie übrigens mehr originale Zuse Rechner finden als im ansonsten großartigen HNF. Konrad Zuse hat in Hünfeld gelebt und ist dort auch gestorben.
Ja huch, Sie sind ja so ein richtiger Schlaufuchs…. hmmm und Sie reden tatsächlich noch mim Pöbel??? Oder ist das schon ihre eigene KI???
@ John Solar
Anders! Wie jeder andere auch habe ich vertiefte Kenntnisse auf einigen Gebieten, und auf vielen anderen nicht. Über die vielen anderen schreibe ich nicht. Sonst kommt nämlich etwas heraus, wie bei diesem Artikel über Quanteninformation und Emergenz: Geplapper. Viele Beiträge im Internet haben leider genau diese Qualität. Darauf will ich aufmerksam machen.
Die Überschrift klang interessant…
Ab der Mitte fragte ich mich, worauf will der Text hinaus…er passte nicht in diesen Blog.
Die Auflösung das ChatGPT dahinter steckt hat mich daher gefreut.
Vielleicht hilft uns ChatGPT auch das ganze „Geplapper“ zu entzaubern und wieder etwas mehr Wert auf Inhalte (z.B. technische Sachverhalte etc.) zu legen.
@ Grams
Wir hatten ehemals bei unserer Ausbildung vor über 50 Jahren einen Vortragenden, der sich persönlich sehr für Konzepte der KI, auch für die „Simulation“ von „Innovationsprozessen“ interessiert hat und uns einen oberflächlichen „Einblick“ gewährte.
Aus meiner vagen Erinnerung waren seine damaligen Aussagen „sehr ähnlich“ den „Aussagen von ChatGPT“ Innovationsprozesse betreffend. Besonders hat er auch im Zusammenhang mit „Mustern“ auf Gleichungen, auf so etwas ähnliches wie einer „Art von Dualität“, z.B. am Beispiel Induktivität/Kapazität, u(t)=L*(di(t)/dt)
bzw. i(t)=C*(du(t)/dt) hingewiesen und verallgemeinert.
Abgesehen davon, dass ChatGPT nicht sehr konkret scheint, was würden Sie als „falsch“ sehen?
@ Elektroniker
Das Problem ist doch, dass wir bei ChatGPT nicht wissen, was richtig und was falsch ist. Nur ein geringer Teil unseres Wissens ist eigene Erfahrung. Das meiste müssen wir aus einem Angebot wählen, das überwiegend aus Informationsmüll besteht. Es wäre eine Überforderung, wenn wir jedes Informationshäppchen auf Stichhaltigkeit prüfen müssten. Es ist ein riesiger Effizienzgewinn, wenn wir nur die Informationsquellen auf Verlässlichkeit zu prüfen brauchen. Korrekte Quellenangaben sind dafür unerlässlich. Daran hapert es bei ChatGPT
Zitat:“riesiger Effizienzgewinn, wenn wir nur die Informationsquellen auf Verlässlichkeit zu prüfen brauchen. Korrekte Quellenangaben sind dafür unerlässlich. Daran hapert es bei ChatGPT“
wie üblich stellt ihr die falschen Fragen, ich habe kürzlich Fragen gestellt und um Quellennachweise gebeten:
Anlass war ein unterirdischer Vortrag eines Elektroingenieurs gegen Energiewende…. Solarmodule würden angeblich weit mehr Co2 erzeugen und Rohstoffe verbrauchen als am Ende Energie und Einsparung rauskommt. Ich war mir zwar ziemlich sicher… aber:
user:
wie genau wird die berechnung der energy payback time von solarmodulen durchgeführt welche werte kommen hierbei raus?
ChatGPT
Die Energy Payback Time (EPBT) ist ein Maß, das angibt, wie lange es dauert, bis ein Solarmodul die Energiemenge produziert hat, die für seine Herstellung, Installation, Betrieb und Entsorgung aufgewendet wurde. Um die EPBT zu berechnen, müssen mehrere Faktoren berücksichtigt werden, darunter:
Die Energiemenge, die zur Herstellung des Solarmoduls benötigt wird, einschließlich der Materialgewinnung, des Transports, der Verarbeitung und der Montage.
Die Energiemenge, die während des Betriebs des Solarmoduls aufgewendet wird, z. B. für Wartung und Reinigung.
Die Energiemenge, die für die Entsorgung oder das Recycling des Solarmoduls am Ende seiner Lebensdauer aufgewendet wird.
Die EPBT kann mit folgender Formel berechnet werden:
EPBT = (E_invest + E_operate + E_disposal) / (E_annual_production * PR)
Dabei sind:
E_invest: Energieaufwand für Herstellung und Installation des Solarmoduls (in Megajoule, MJ)
E_operate: Jährlicher Energieaufwand für den Betrieb des Solarmoduls (in MJ)
E_disposal: Energieaufwand für die Entsorgung oder das Recycling des Solarmoduls (in MJ)
E_annual_production: Jährliche Energieproduktion des Solarmoduls (in MJ)
PR: Performance Ratio (Leistungsfaktor), ein Faktor zwischen 0 und 1, der die Effizienz des Systems berücksichtigt
Typische Werte für die EPBT von Solarmodulen variieren je nach Art der Solarzelle, Standort und Installation. Im Allgemeinen liegt die EPBT von kristallinen Silizium-Solarmodulen (mono- und polykristallin) zwischen 1 und 4 Jahren, während Dünnschicht-Solarmodule (z. B. Cadmiumtellurid oder CIGS) oft eine kürzere EPBT von etwa 1 bis 2 Jahren aufweisen.
Es ist wichtig zu beachten, dass sich die EPBT-Werte im Laufe der Zeit verbessern, da die Energieeffizienz der Solarmodule steigt und die Energieintensität der Herstellungsprozesse abnimmt. Solaranlagen haben in der Regel eine Lebensdauer von 25 bis 30 Jahren, sodass die EPBT nur einen kleinen Teil der gesamten Lebensdauer ausmacht, und der Großteil der Energie, die das System produziert, als „Nettoenergiegewinn“ betrachtet werden kann.
User
hast du evtl hinweise auf eine wissenschaftliche untersuchung und quelle?
Chatgpt
Ja, es gibt mehrere wissenschaftliche Untersuchungen und Quellen, die sich mit der Berechnung der Energy Payback Time (EPBT) von Solarmodulen befassen. Eine angesehene Studie ist die vom Fraunhofer-Institut für Solare Energiesysteme ISE durchgeführte Untersuchung:
Fthenakis, V. M., Kim, H. C., & Alsema, E. (2008). Emissions from Photovoltaic Life Cycles. Environmental Science & Technology, 42(6), 2168–2174. https://doi.org/10.1021/es071763q
Diese Studie analysiert die EPBT und Emissionen von verschiedenen Photovoltaik-Technologien, einschließlich kristallinem Silizium und Dünnschicht-Solarzellen. Die Studie kommt zu dem Schluss, dass die EPBT für verschiedene Photovoltaik-Technologien in der Regel zwischen 1 und 4 Jahren liegt, wobei die Dünnschicht-Technologien tendenziell eine kürzere EPBT aufweisen.
Eine weitere wichtige Quelle ist der Bericht „Energy Payback Time of Photovoltaic Systems: A Review for Northern Europe“ von Louwen et al.:
Louwen, A., van Sark, W. G. J. H. M., Faaij, A. P. C., & Schropp, R. E. I. (2016). Energy Payback Time of Photovoltaic Systems: A Review for Northern Europe. Renewable and Sustainable Energy Reviews, 74, 130–142. https://doi.org/10.1016/j.rser.2017.02.068
Dieser Review-Artikel untersucht die EPBT von Photovoltaik-Systemen in Nordeuropa und berücksichtigt verschiedene Faktoren, wie z. B. die unterschiedlichen geografischen Bedingungen und die Effizienz von Solarmodulen. Die Autoren stellen fest, dass die EPBT von Solarmodulen in Nordeuropa in der Regel zwischen 1,5 und 2,5 Jahren liegt, abhängig von der Technologie und dem Standort.
Diese Studien bieten umfassende Einblicke in die Berechnung der EPBT und geben einen guten Überblick über die verschiedenen Faktoren, die die EPBT von Solarmodulen beeinflussen. Es ist wichtig zu beachten, dass die Ergebnisse je nach Technologie, geografischer Lage und der Art der Installation variieren können.
@ Grams
Das Problem sehe ich genau wie Sie, dass sozusagen die Menge des „Informationsmüll“ auch noch „explodieren“ würde.
Deswegen wäre ich dafür, dass sozusagen von einer „zertifiziertem, qualifizierten angesehenen Institution (Behörde)“ ein oder mehrere „Sternchen“ (Qualität und KI oder nicht KI) vergeben werden, die nicht gefälscht werden dürfen und auf die man sich halbwegs verlassen kann. Ähnlich wie z.B. auf Wikipedia?
Dass man mit systematisch und extrem schnell, allenfalls auch „gezielt scannenden KI Maschinen“ auch auf interessante, derzeit noch unbekannte Sachverhalte stoßen könnte, halte ich allerdings schon für möglich.
Bei Google arbeitet man angeblich daran, dass KI Systeme ihren eigenen Output, auf Wunsch, für Menschen nachvollziehbar „kommentieren“.
Z.B. welche „Muster“ besonders hoch bewertet wurden, allenfalls könnten (besondere?) „Interessierte“ sogar alle bewerteten Daten samt Bewertung bekommen um selbst weitere Analysen durchführen zu können?
@ John Solar 19. Mai 2023 um 21:32 Uhr
ChatGPT wurde offenbar mit der Fähigkeit ausgestattet, irgendwelche themenbezogene Literaturlisten ausfindig zu machen. Korrekte Zitate ergibt das noch nicht, dazu müsste ein Zusammenhang zwischen den inhaltlichen Aussagen und den Quellen hergestellt werden. Selbst wenn ChatGPT das leistet, wäre immer noch offen, wer für Tatsachenbehauptungen verantwortlich ist: ein Roboter? Es gibt weltweit ziemlich zuverlässige Organisationen zur Generierung von Fakten: Wissenschaftliche Institutionen, Hochschulen, Redaktionen. Eine zentrale Rolle spielt das Impressum. Jeder soll die Möglichkeit haben, die Seriosität des Anbieters zu überprüfen, ihn zu kontaktieren und nötigenfalls auch rechtliche Ansprüche gegen ihn durchsetzen zu können.
Für verlässliche Auskunft wende ich mich lieber an die Fachforen und die (populärwissenschaftlichen) Publikationen. Sogar die Wikipedia ziehe ich dem Zugang über ChatGPT vor.
Nebenbei: Erstaunlicherweise kommt das Ihnen nahestehende Fraunhofer-Institut in der Antwort auf Ihre Nachfrage vor, dieser Hinweis fehlt in der Antwort auf meine Nachfrage. Auch die für ChatGPT eigentlich unüblichen Auszeichnungen wie „angesehene Studie“ und „wichtige Quelle“ erscheinen nur in der Ihnen zugedachten Antwort, in meiner nicht.
Vorschlag: Im Sinne dieses Blogs stellen wir den Quatsch mit ChatGPT ein.