Kernaussage:
"Intelligenz ... ist die kognitive bzw. geistige Leistungsfähigkeit bei Menschen und zum Teil auch bei Tieren speziell im Problemlösen. (https://de.wikipedia.org/wiki/Intelligenz, 06.06.25)
Abweichend von dieser Definition definiere ich:
Definition: Intelligenz ist die Fähigkeit mit analytisch-kreativem Denken schwierige Problem lösen zu können.
Eine Definition soll zweckmäßig sein: Meine Definition hat das Ziel die Menschen zu motivieren schwierige Probleme zu lösen. Dabei wird betont, dass sich schwierige Probleme nur durch analytisch-kreatives Denken lösen lassen, weil viele Menschen diesem Denken keine große Bedeutung beimessen.
Menschen lösen Probleme, in dem sie Regeln finden und anwenden (siehe auf Learn-Study-Work "Wie Probleme lösen?").
"... wenn wir in einer unberechenbaren Welt leben würden, in der sich die Dinge zufällig oder auf sehr komplexe Weise änderten, wären wir nicht in der Lage, die Dinge zu verstehen. Wir leben aber in einem ... Universum, in dem sich die Dinge zwar ändern, aber nach Mustern, Regeln oder, wie wir sie nennen, nach Naturgesetzen. ... Und so wird es möglich, Dinge herauszufinden." (Sagan, C. (2013). Cosmos. New York: Randon House Publishing Group, S. 41)
Das Finden von Regeln ist ein logischer Vorgang, der als Induktion bezeichnet wird: Bei der Induktion wird aus wiederholten Beobachtungen auf eine Regel geschlossen (die allerdings nur solange gilt, wie keine wiederlegenden Beobachtungen gemacht werden).
Beispiel Induktion:
Ich habe 1000 Schwäne beobachtet.
Alle waren weiß.
_____________________________
Alle Schwäne sind weiß. (Regel)
Beispiel Gravitationskraft:
Ein Gegenstand fällt von einer Höhe immer in Richtung Erde.
Es gibt eine Kraft (genannt Gravitationskraft), die diesen Körper anzieht.
Die Kraft ist proportional zur Masse des Körpers.
_________________________________________________
Die Gravitationskraft berechnet sich nach der Formel F = m x g.
Obwohl wir die Gravitationskraft jeden Tag beobachten können, benötigen wir viel zusätzliches Physikwissen, um auf die Formel schließen zu können.
Die gefundenen Regeln benutzen die Menschen um logischen Schlussfolgerungen zu ziehen, wodurch sie in der Lage sind auch schwierige Problem zu lösen.
Regeln sind bedingte Aussagen, die angeben, zu welchem Ergebnis man kommt, wenn bestimmte Bedingungen erfüllt sind: wenn diese Bedingungen erfüllt sind, dann ergibt sich dies Ergebnis. Der logische Schluss von einer Regel und den erfüllten Bedingungen auf ein Ergebnis heißt Deduktion.
Die allgemeine Darstellung einer Deduktion sieht so aus:
Regel bzw. Regeln + erfüllte Bedingungen → Schlussfolgerung/Ergebnis
Wenn A und B, A erfüllt Also C
dann C B erfüllt
Bei einer logischen Schlussfolgerung wird aus gegebenen Informationen (den Prämissen) eine neue Aussage (die Konklusion/Schlussfolgerung) abgeleitet. Prämissen sind "wahrheitsfägige Aussagen", was bedeutet, dass entschieden werden kann, ob sie wahr sind oder nicht. Prämissen können Regeln sein oder Fakten.
Beispiel Deduktion:
Alle Menschen sind sterblich (Regel-Prämisse).
Sokrates war ein Mensch (Fakt-Prämisse).
________________________________
Sokrates war sterblich (Konklusion).
Mindestens eine der Prämissen muss eine Regel sein, weil sonst keine Problem gelöst werden kann. Natürlich müssen die Regel und die Fakten zusammenpassen. Aus der Regel "Die Erde dreht sich um die Sonne" und dem Fakt "Sokrates war ein Mensch" kann man keine Schlussfolgerung ziehen.
Kann man mit Fakten alleine ein Problem lösen? Worauf kann man z. B. aus den beiden Fakten "Berlin ist eine Stadt in Deutschland" und "Deutschland liegt in Europa" schließen? Schlussfolgerung: Berlin liegt in Europa. Man kann diese Schlussfolgerung aber auch so sehen, dass man für sie die Regel benutzt hat: Wenn eine Stadt in Deutschland liegt und Deutschland ein Teil Europas ist, dann liegt auch Berlin in Europa.
"[Wir halten] erfreut fest: Neues Wissen über die Welt kann in Form von neuen Fakten und in der Form von neuen Regeln vorliegen." (Otte, R. (2023). Künstliche Intelligenz für dummies. John Wiley & Sons, S. 55)
Bei einem schwierigen Problem sieht die Darstellung der Schlussfolgerung allerdings nicht so einfach aus wie oben. Da müssen viele Regeln und Fakten berücksichtigt werden, damit man eine Schlussfolgerung ziehen kann. Oft sind auch mehrere Schlussfolgerungen nötig, um das Problem zu lösen.
Menschen müssen alle Lösungsversuche dokumentieren, weil ihr Gedächtnis begrenzt ist. Wenn sie große Mengen an Daten auswerten müssen, dann dauert das sehr lange. Die Auswertung ist auch qualitativ nicht optimal, weil die Menschen bei großen Datenmengen nicht alle Kleinigkeiten berücksichtigen können. Dafür sind Menschen sehr kreativ, weil sie ein breites Fachwissen, ein gutes Allgemeinwissen und idealerweise eine Problemlösungskompetenz haben. Dadurch können sie Analogien erkennen, die sie zu neuen Ideen inspirieren (siehe auf Learn-Study-Work "Wie Kreativ werden").
"Die Fähigkeit, Ähnlichkeiten und Analogien zu erkennen, ist einer der grundlegendsten Aspekte der menschlichen Kognition. Sie ist entscheidend für das Erkennen, Klassifizieren und Lernen und spielt eine wichtige Rolle bei wissenschaftlichen Entdeckungen und Kreativität." (Vosniadou, S. & Ortony, A. (1989). Similarity and analogical reasoning, Cambridge: Cambridge University Press, S. 1)
Definition: Künstliche Intelligenz ist die Fähigkeit technischer Systeme selbstständig Probleme lösen zu können.
"KI ist die Fähigkeit einer Maschine, menschenähnliche Fähigkeiten wie logisches Denken, Lernen, Planung und Kreativität zu zeigen. KI ermöglicht es technischen Systemen, ihre Umgebung wahrzunehmen, mit dem Wahrgenommenen umzugehen, Probleme zu lösen und zu handeln, um ein bestimmtes Ziel zu erreichen." (www.europarl.europa.eu/topics/en/article/20200827STO85804/what-is-artificial-intelligence-and-how-is-it-used, 13.07.25)
Im Gegensatz zu Menschen kann die Künstliche Intelligenz große Mengen an Daten speichern und auswerten. Beim Auswerten kann sie auf Feinheiten achten und dadurch auch "kleine" Muster/Regeln erkennen. Dies bedeutet, dass die KI kreativ ist.
"KI erkennt Krebs besser als Fachärzte ... Das beste KI-System erreichte eine nahezu einhundertprozentige Erkennungsgenauigkeit und färbte die kritischen Stellen zudem gleich ein. Insgesamt waren sieben der 32 [KI-] Systeme besser als die Pathologen-Gruppe [Facharzt-Gruppe]. Zwar erkannte auch der Experte ohne Zeitlimit die befallenen Proben mit absoluter Präzision, nahm sich für die Untersuchung allerdings auch 30 Stunden Zeit. Die übrigen elf Pathologen [Fachärzte] übersahen vor allem Metastasten mit einer Größe unter 2 mm." (www.hannovermesse.de/de/news/news-fachartikel/ki-erkennt-krebs-besser-als-fachaerzte, 12.07.25)
Beispiel Schach: Ein Schachkomputer hat Millionen von Schachpartien gegen sich selbst gespielt und beherrscht deshalb Detail-Regeln, die er in bestimmten Situationen anwendet (die Schachwelt staunt dann über einen unerwarteten Zug).
"Der Schachcomputer AlphaZero beispielsweise ... spielt Millionen von Partien gegen sich selbst, um Strategien und Taktiken zu entwickeln, die über das hinausgehen, was ein Mensch sich durch jahrelanges Training aneignen könnte." (ChatGPT)
Der Nachteil der KI ist, dass sie zwar sehr gut auf Bildern Katzen von Hunden unterscheiden kann, aber sie weiß nicht, was eine Katze ist (wie sie sich verhält, wie sie sich anfühlt, ...). Deshalb kann eine KI nicht so kreativ sein wie ein Mensch. Sie hat nicht so ein gutes Allgemeinwissen wie ein Mensch, weshalb sie nicht gut Analogien finden kann. Ein Mensch kennt durch seine Lebenserfahrung und seine Bildung eine große Menge an Regeln und kann diese auch fachübergreifend anwenden (er findet Analogien s. o.).
"Der Computer kann interpolieren [bekannte Ideen kombinieren] und damit neue Ideen generieren. Was er nicht (gut) kann, ist extrapolieren, also auf eine grundsätzlich neue Idee kommen, die sich nicht als Überlagerung aller bisher bekannten Ideen ergibt. Ein Computer, der sich doch einmal in den Explorationsraum verirrt, liegt zu 99,9 Prozent falsch." Otte, R. (2023). Künstliche Intelligenz für dummies. John Wiley & Sons , S. 62)
Die Künstliche Intelligenz verarbeitet Daten. Die Verarbeitung geschieht in der Form von logischen Entscheidungen (wie oben beschrieben), die auf der Grundlage von logisch-mathematischen Berechnungsschritten, Algorithmen genannt, getroffen werden. Ohne diese Grundlage wäre ein automatisches logisches Schließen nicht möglich.
...
Der folgende Text muss noch überarbeitet werden:
Im Prinzip löst die KI Probleme auf die gleiche Art und Weise wie die Menschen. Ihr großer Vorteil ist aber, dass sie in kurzer Zeit riesige Mengen an Daten verarbeiten kann.
Um die Lösung für ein Problem zu finden, muss dieses analysiert und dann eine logische Schlussfolgerung (Konklusion) gezogen werden. Bei einer logischen Schlussfolgerung wird aus gegebenen Informationen (den Prämissen) eine neue Aussage (die Konklusion) abgeleitet. Prämissen sind "wahrheitsfägige Aussagen", was bedeutet, dass entschieden werden kann, ob sie wahr sind oder nicht.
Eine KI verwendet Regeln, um aus dazugehörigen Fakten eine Schlussfolgerung zu ziehen und so ein Problem zu lösen (eine Frage zu beantworten).
Es gibt verschiedene Arten von KI, wie z. B. Expertensysteme, Deep-Learning mit neuronalen Netzen und Large-Language-Models, LLMs (wie ChatGPT & Co).
"Expertensysteme sind eine Art von Künstlicher Intelligenz (KI), die auf einer Sammlung von Regeln, Wissen und Erfahrungen von menschlichen Experten basiert. Expertensysteme lernen nicht selbstständig, sondern ihr Wissen und ihre Entscheidungsprozesse werden manuell von Fachleuten programmiert. Die Funktionsweise eines Expertensystems beruht also darauf, dass es vordefinierte Regeln oder logische Abläufe nutzt, um Probleme zu lösen oder Entscheidungen zu treffen.
Im Gegensatz dazu gibt es moderne KI-Systeme wie maschinelles Lernen (Machine Learning), bei denen das System auf Basis von Daten selbstständig Muster [Regeln] erkennt und daraus lernen kann, ohne explizit von Menschen programmiert zu werden. Deep Learning ist ein Teilbereich des maschinellen Lernens, der auf künstlichen neuronalen Netzwerken basiert, die in mehreren Schichten (daher "deep", also tief) organisiert sind. Diese Schichten ermöglichen es dem Modell, komplexe Muster [Regeln] und Zusammenhänge in großen Datenmengen zu erkennen." (ChatGPT)
Es gibt eine Anwendung, bei der mit Deep-Learning Patienten-EKGs auswertet werden. Dies spart nicht nur Zeit, die Auswertung der EKGs wird auch präziser.
"In dieser Abhandlung wird mit KI das maschinelle (deep) Lernen mit einem neuronalem Netz bezeichnet ... Grundlage für die Erkennung von EKG-Anomalien und die Diagnose von Arrhythmien ist die Unterscheidung normaler und abnormaler einzelner Herzschläge ... Die Unterscheidung dieser Herzschläge im EKG ist schwierig und zeitaufwändig ... KI ist bei der Unterscheidung einer Reihe unterschiedlicher Arrhythmien in Single-Label- und Multi-Label-EKGs genauer als Ärzte in kardiologischen Abteilungen [27]. ... Unüberwachtes Lernen identifiziert sichtbare oder verborgene Datenmuster aus einem unbearbeitetem Datensatz." (Martínez-Sellés, M., & Marina-Breysse, M. (2023). Current and future use of artificial intelligence in electrocardiography. Journal of Cardiovascular Development and Disease, 10(4), 175.)
Mit einfachen Worten ausgedrückt: Experten beherrschen die grundlegenden und viele spezielle Regeln auf einem Fachgebiet, aber dadurch, dass eine Deep-Learning-KI mit sehr großen Datenmengen trainiert wurde, hat sie auch kleine Detail-Regeln erkannt, die sie anwendet und so zu besseren Entscheidungen kommt als ein Experte.
Beim Deep Learning gibt es das überwachte und das unüberwachte Lernen (Training). Beim überwachten Lernen werden der KI Trainingsdaten gegeben, die eine Kennzeichnung enthalten, ob sie das gewünschte Ergebnis zeigen oder nicht. Das Ziel des Trainings ist es, ein Modell zu erstellen, das in der Lage ist, aus den Eingabedaten korrekte Vorhersagen zu machen.
Beispiel: Die KI soll bestimmen, ob ein Bild eine Katze zeigt oder nicht.
Zum Training werden der KI z. B. 100 Bilder zur Verfügung gestellt, die eine Katze zeigen und 100 Bilder, die keine Katze zeigen. Dann lernt die KI Katzenbilder von anderen Bildern zu unterscheiden.
Beim unüberwachten Lernen wird der KI beim Training nicht gesagt, welche Daten das gewünschte Ergebnis zeigen und welche nicht. Dann versucht die KI die Daten zu klassifizieren.
"Das Ziel des unüberwachten Lernens beim Deep Learning ist es, aus unbeschrifteten Daten (also Daten, die keine Zielwerte oder Labels/Kennzeichnung haben) nützliche Muster und Strukturen zu extrahieren. Im Gegensatz zum überwachten Lernen, bei dem das Modell mit gelabelten Daten trainiert wird und spezifische Vorhersagen macht, wird das unüberwachte Lernen also eingesetzt, um verborgene Strukturen und Datenbeziehungen zu identifizieren, ohne dass explizite Zielwerte vorliegen." (ChatGPT, 29.06.25)
Funktioniert das unüberwachte Lernen bei einer Unterscheidung zwischen einem guten und einem schlechten Text?
"Das unüberwachte Lernen kann dazu verwendet werden, Muster und Strukturen in Texten zu entdecken, die möglicherweise auf Qualitätsunterschiede hinweisen. Es kann beispielsweise helfen, Texte zu gruppieren, Anomalien zu erkennen oder semantische Beziehungen zu verstehen. Allerdings bietet es keine direkte Klassifikation von Texten als "gut" oder "schlecht", da es keine vorab definierten Labels/Kennzeichnung verwendet. Eine klare Unterscheidung zwischen guten und schlechten Texten würde im Allgemeinen mehr von überwachtem Lernen profitieren, wo explizit gelabelte Trainingsdaten verwendet werden.
Ein Ansatz im unüberwachten Lernen, der ebenfalls zur Textbewertung genutzt werden könnte, ist die Anomalieerkennung. Wenn ein Text stark von den üblichen Mustern abweicht, könnte er als „schlecht“ (oder „anomal“) angesehen werden.
Beispiel: Texte mit vielen Rechtschreibfehlern, unlogischer Struktur oder extrem schlechtem Stil könnten als Anomalien erkannt werden. ChatGPT nutzt ein semantisches (die Bedeutung betreffendes) Modell und prüft, ob der Text insgesamt sinnvoll und inhaltlich stimmig ist. Wenn der Text einen inhaltlichen Sprung oder einen Widerspruch enthält, kann das Modell eine unlogische Struktur erkennen." (ChatGPT, 29.06.25)
Das Problem von Large-Language-Models (LLMS), wie ChatGPT & Co., ist also, dass sie nicht lernen können genau zwischen guten und schlechten Texten zu unterscheiden, weil sie nicht mit Texten trainieren können, die allgemeingültig mit gut und schlecht gekennzeichnet sind. Was ein Mensch als guten Text ansieht, bewertet ein anderer Mensch als schlechten Text.
Wenn ich ChatGPT frage: "Welche Eigenschaften hat ein guter Text?", dann bekomme ich eine sehr gute Antwort, aber ChatGPT kann sein theoretisches Wissen nicht vollständig auf seine eigenen Texte anwenden (siehe auf Learn-Study-Work "Lernen mit ChatGP & Co").