Lernen mit KI - die Vor- und Nachteile

Kernaussage: Das Lernen mit einer KI darf nicht dazu führen, dass die Menschen ihre Entscheidungskompetenz verlieren, weil sie einfach die Antworten der KI übernehmen und nicht mehr die beste Antwort aus mehreren Alternativen auswählen.

 

Für Menschen, die sich mit KI gut auskennen, enthält der Text wahrscheinlich schon bekanntes Wissen. Dann sollten Sie nur die Anworten auf diejenigen Fragen lesen, die sie interessieren.

 

Was ist die Definition von Intelligenz?

ChatGPT definiert:

"Intelligenz ist die Fähigkeit, Probleme zu lösen, aus Erfahrungen zu lernen, sich an neue Situationen anzupassen, logisch zu denken und zweckmäßig zu handeln." (ChatGPT, 03.06.25)

 

Wikipedia definiert:

"Intelligenz ... ist die kognitive bzw. geistige Leistungsfähigkeit bei Menschen und zum Teil auch bei Tieren speziell im Problemlösen. (https://de.wikipedia.org/wiki/Intelligenz, 06.06.25)

 

Meine Definition:

"Intelligenz ist die Fähigkeit mit analytisch-kreativem Denken schwierige Probleme lösen zu können." (siehe auf Learn-Study-Work "Intelligenz und Persönlichkeit")

 

Warum habe ich Intelligenz so definiert?

  1. Alle Definitionen klassifizieren Intelligenz als eine Fähigkeit, ich auch.
  2. Ein Problem besteht, wenn es ein Ziel gibt, dass nicht erreicht werden kann. Was für den einen Menschen (z. B. ohne Bildung) ein Problem darstellt, ist für einen anderen Menschen kein Problem. Deshalb sind nur Personen intelligent, die schwierige Probleme lösen können. Je schwieriger die Probleme sind, die gelöst werden können, umso größer ist die Intelligenz.
  3. Um ein Problem lösen zu können, müssen immer drei Hauptschritte ausgeführt werden: (1) Das Problem muss analysiert werden (die unbefriedigende Ausgangssituation, das Hindernis und das Ziel). (2) Es müssen mehrere alternative Lösungsideen generiert werden (wenn man das Problem optimal lösen will). (3) Man muss sich für die beste Lösung entscheiden (siehe auf Learn-Study-Work "Wie Probleme lösen"). Deshalb benötigt man zum Lösen schwieriger Problem ein analytisch-kreatives Denkvermögen. Es zeugt nicht von Intelligenz, wenn ein Problem durch Zufall gelöst wird oder dadurch, dass eine andere Person die Lösung vorgibt.

Eine Definition ist eine Regel: Wenn eine Fähigkeit eines Menschen darin besteht, dass er mit analytisch-kreativem Denken schwierige Probleme lösen kann, dann handelt es sich um Intelligenz. Wird ein Bedingung nicht erfüllt, dann ist das keine Intelligenz.

 

Die Definition von ChatGPT nennt keine Bedingungen, die erfüllt werden müssen, sondern zählt Fälle auf, in denen ein Mensch intelligent ist. Ein Mensch kann z. B. ein Problem für eine andere Person lösen, ohne sich selbst an eine neue Situation anzupassen. Die Eigenschaften einer guten Definition werden unten behandelt.

 

Wie löst eine KI Probleme?

Im Prinzip löst die KI Probleme auf die gleiche Art und Weise wie die Menschen. Ihr großer Vorteil ist aber, dass sie in kurzer Zeit riesige Mengen an Daten verarbeiten kann.

 

Um die Lösung für ein Problem zu finden, muss dieses analysiert und dann eine logische Schlussfolgerung (Konklusion) gezogen werden. Bei einer logischen Schlussfolgerung wird aus gegebenen Informationen (den Prämissen) eine neue Aussage (die Konklusion) abgeleitet. Prämissen sind "wahrheitsfägige Aussagen", was bedeutet, dass entschieden werden kann, ob sie wahr sind oder nicht.

 

Beispiel:

Alle Menschen sind sterblich (Prämisse).

Sokrates war ein Mensch (Pämisse).

________________________________

Sokrates war sterblich (Konklusion).

 

Mindestens eine der Prämissen muss eine Regel sein, weil sonst keine Schlussfolgerung auf eine Konklusion gezogen werden kann. Im obigen Beispiel ist die Regel: "Alle Menschen sind sterblich." Die Prämisse "Sokrates war ein Mensch" ist ein Fakt. Natürlich müssen die Regel und die Fakten zusammenpassen. Aus der Regel "Die Erde dreht sich um die Sonne" und dem Fakt "Sokrates war ein Mensch" kann man keine Schlussfolgerung ziehen.

 

Auch aus zwei Fakten ohne Regel kann keine Schlussfolgerung gezogen werden. Worauf will man z. B. aus den beiden Fakten "Sokrates war ein Mensch" und "Sokrates hatte schwarze Haare" schließen?

 

Allgemeines Beispiel für einen logischen Schluss:

 

Wenn A und B, dann C. (Regel-Prämisse)

A ist wahr. (Prämisse A)

B ist wahr. (Prämisse B)

_________________________________

Also gilt C. (Konklusion)

 

Eine KI verwendet Regel, um aus dazugehörigen Fakten eine Schlussfolgerung zu ziehen und so ein Problem zu lösen (eine Frage zu beantworten). Es gibt verschiedene Arten von KI, wie z. B. Expertensysteme, Deep-Learning mit neuronalen Netzen und Large-Language-Models, LLMs (wie ChatGPT & Co).

 

"Expertensysteme sind eine Art von Künstlicher Intelligenz (KI), die auf einer Sammlung von Regeln, Wissen und Erfahrungen von menschlichen Experten basiert. Expertensysteme lernen nicht selbstständig, sondern ihr Wissen und ihre Entscheidungsprozesse werden manuell von Fachleuten programmiert. Die Funktionsweise eines Expertensystems beruht also darauf, dass es vordefinierte Regeln oder logische Abläufe nutzt, um Probleme zu lösen oder Entscheidungen zu treffen. 

Im Gegensatz dazu gibt es moderne KI-Systeme wie maschinelles Lernen (Machine Learning), bei denen das System auf Basis von Daten [Fakten] selbstständig Muster [Regeln] erkennt und daraus lernen kann, ohne explizit von Menschen programmiert zu werden. Deep Learning ist ein Teilbereich des maschinellen Lernens, der auf künstlichen neuronalen Netzwerken basiert, die in mehreren Schichten (daher "deep", also tief) organisiert sind. Diese Schichten ermöglichen es dem Modell, komplexe Muster [Regeln] und Zusammenhänge in großen Datenmengen zu erkennen." (ChatGPT)

 

Es gibt eine Anwendung, bei der mit Deep-Learning Patienten-EKGs auswertet werden. Dies spart nicht nur Zeit, die Auswertung der EKGs wird auch präziser. 

 

"In dieser Abhandlung wird mit KI das maschinelle (deep) Lernen mit einem neuronalem Netz bezeichnet ... Grundlage für die Erkennung von EKG-Anomalien und die Diagnose von Arrhythmien ist die Unterscheidung normaler und abnormaler einzelner Herzschläge ... Die Unterscheidung dieser Herzschläge im EKG ist schwierig und zeitaufwändig ... KI ist bei der Unterscheidung einer Reihe unterschiedlicher Arrhythmien in Single-Label- und Multi-Label-EKGs genauer als Ärzte in kardiologischen Abteilungen [27]. ..Unüberwachtes Lernen identifiziert sichtbare oder verborgene Datenmuster aus einem unbearbeitetem Datensatz." (Martínez-Sellés, M., & Marina-Breysse, M. (2023). Current and future use of artificial intelligence in electrocardiography. Journal of Cardiovascular Development and Disease, 10(4), 175.)

 

Mit einfachen Worten ausgedrückt: Experten beherrschen die grundlegenden Regeln auf einem Fachgebiet, aber dadurch, dass eine Deep-Learning-KI mit sehr großen Datenmengen trainiert wurde, hat sie auch kleine Detail-Regeln erkannt, die sie anwendet und so zu besseren Entscheidungen kommt als ein Experte.

 

Ein Schachkomputer hat Millionen von Schachpartien gegen sich selbst gespielt und beherrscht deshalb Detail-Regeln, die er in bestimmten Situationen anwendet (die Schachwelt staunt dann über einen unerwarteten Zug). So gibt der Schachkomputer einem menschlichen Gegner keine Chance zu gewinnen.

 

"Der Schachcomputer AlphaZero beispielsweise nutzt Deep Learning und spielt Millionen von Partien gegen sich selbst, um Strategien und Taktiken zu entwickeln, die über das hinausgehen, was ein Mensch sich durch jahrelanges Training aneignen könnte." (ChatGPT)

 

Wie funktioniert das Training beim Deep Learning?

Beim Deep Learning gibt es das überwachte und das unüberwachte Lernen (Training). Beim überwachten Lernen werden der KI Trainingsdaten gegeben, die eine Kennzeichnung enthalten, ob sie das gewünschte Ergebnis zeigen oder nicht. Das Ziel des Trainings ist es, ein Modell zu erstellen, das in der Lage ist, aus den Eingabedaten korrekte Vorhersagen zu machen.

 

Beispiel: Die KI soll bestimmen, ob ein Bild eine Katze zeigt oder nicht.

Zum Training werden der KI z. B. 100 Bilder zur Verfügung gestellt, die eine Katze zeigen und 100 Bilder, die keine Katze zeigen. Dann lernt die KI Katzenbilder von anderen Bildern zu unterscheiden. 

 

Beim unüberwachten Lernen wird der KI beim Training nicht gesagt, welche Daten das gewünschte Ergebnis zeigen und welche nicht. Dann versucht die KI die Daten zu klassifizieren.

 

"Das Ziel des unüberwachten Lernens beim Deep Learning ist es, aus unbeschrifteten Daten (also Daten, die keine Zielwerte oder Labels/Kennzeichnung haben) nützliche Muster und Strukturen zu extrahieren. Im Gegensatz zum überwachten Lernen, bei dem das Modell mit gelabelten Daten trainiert wird und spezifische Vorhersagen macht, wird das unüberwachte Lernen also eingesetzt, um verborgene Strukturen und Datenbeziehungen zu identifizieren, ohne dass explizite Zielwerte vorliegen." (ChatGPT, 29.06.25)

 

Funktioniert das unüberwachte Lernen bei einer Unterscheidung zwischen einem guten und einem schlechten Text?

 

"Das unüberwachte Lernen kann dazu verwendet werden, Muster und Strukturen in Texten zu entdecken, die möglicherweise auf Qualitätsunterschiede hinweisen. Es kann beispielsweise helfen, Texte zu gruppieren, Anomalien zu erkennen oder semantische Beziehungen zu verstehen. Allerdings bietet es keine direkte Klassifikation von Texten als "gut" oder "schlecht", da es keine vorab definierten Labels/Kennzeichnung verwendet. Eine klare Unterscheidung zwischen guten und schlechten Texten würde im Allgemeinen mehr von überwachtem Lernen profitieren, wo explizit gelabelte Trainingsdaten verwendet werden.

Ein Ansatz im unüberwachten Lernen, der ebenfalls zur Textbewertung genutzt werden könnte, ist die Anomalieerkennung. Wenn ein Text stark von den üblichen Mustern abweicht, könnte er als „schlecht“ (oder „anomal“) angesehen werden. 

Beispiel: Texte mit vielen Rechtschreibfehlern, unlogischer Struktur oder extrem schlechtem Stil könnten als Anomalien erkannt werden. ChatGPT nutzt ein semantisches (die Bedeutung betreffendes) Modell und prüft, ob der Text insgesamt sinnvoll und inhaltlich stimmig ist. Wenn der Text einen inhaltlichen Sprung oder einen Widerspruch enthält, kann das Modell eine unlogische Struktur erkennen." (ChatGPT, 29.06.25)

 

Das Problem von Large-Language-Models (LLMS), wie ChatGPT & Co., ist also, dass sie nicht lernen können genau zwischen guten und schlechten Texten zu unterscheiden, weil sie nicht mit Texten trainieren können, die allgemeingültig mit gut und schlecht gekennzeichnet sind. Was ein Mensch als guten Text ansieht, bewertet ein anderer Mensch als schlechten Text.

 

Wenn ich ChatGPT frage: "Welche Eigenschaften hat ein guter Text?", dann bekomme ich eine (fast) sehr gute Antwort, aber ChatGPT kann sein theoretisches Wissen nicht vollständig auf seine eigenen Texte anwenden (siehe unten).

 

Wie funktionieren LLMs (ChatGPT & Co)?

"ChatGPT wirkt intelligent, weil es in der Lage ist, komplexe sprachliche
Aufgaben zu lösen – aber seine „Intelligenz“ … basiert nicht auf ...  
Verstehen, sondern auf Wahrscheinlichkeiten, Mustern [Regeln] und 
enorm viel Training. ... ChatGPT sagt nicht „die Wahrheit“, sondern das 
wahrscheinlichste nächste Wort … Die Wahrscheinlichkeit bezieht sich
auf: „Wie oft kam diese Wortkombination in glaubwürdigen Quellen
vor?" …
Bei der Eingabe: „Die Hauptstadt von Frankreich ist …“ 
GPT berechnet z. B.: 
• „Paris“: 97 % 
• „Lyon“: 2 % 
• „Berlin“: 0,1 %
→ Es wählt fast sicher „Paris“ – aber theoretisch wäre auch „Lyon“ 
möglich." (ChatGPT, 06.06.25, vielleicht hat sich ChatGPT weiterentwickelt)

 

Auf die Frage: "Was sind die wahrscheinlichsten Wörter im Zusammenhang mit Intelligenz?", zeigt ChatGPT eine Liste von Wörtern. Aus diesen formuliert ChatGPT eine zufällige Version als Antwort auf die Frage: "Was ist Intelligenz?" (siehe oben)

  • "Das Training nutzt sehr viele Texte aus dem offenen Internet + lizensierte Datensätze + von Menschen erstelltes Lehrmaterial. Vorab werden allerdings bestimmte Kategorien (Hassrede, Pornografie, Spam u. ä.) herausgefiltert.
  • Quellenangaben kommen aus einer separaten, expliziten Web-Suche.
  • Da ChatGPT nicht deterministisch ist (außer bei Temperatureinstellung = 0), kann es bei gleicher Frage leicht unterschiedliche Antworten geben.
  • ChatGPT hat eine erweiterte Speicherfunktion, die es ermöglicht, Informationen aus früheren Gesprächen zu nutzen, um Antworten noch personalisierter zu gestalten." (ChatGPT, 06.06.25, vielleicht hat sich ChatGPT weiterentwickelt)

ChatGPT gibt also auf eine Frage immer die wahrscheinlichste Antwort. Diese ist oft die beste Antwort, aber nicht immer. 

 

"Allerdings folgt ChatGPT beim Generieren von Antworten nicht nur der Wahrscheinlichkeit, sondern es gibt auch eine Vielzahl von impliziten Regeln. Hier sind einige der wichtigsten Regeln:

  • ChatGPT ist darauf trainiert, grammatikalisch korrekte Sätze zu bilden.
  • Das Modell verwendet den Kontext der gesamten Unterhaltung, ... Es bezieht sich auf vorherige Aussagen, wenn nötig, und vermeidet es, plötzlich das Thema zu wechseln oder Antworten zu liefern, die im Widerspruch zum vorangegangenen Kontext stehen.
  • Das Modell wird darauf trainiert, keine persönlichen Meinungen zu äußern oder einseitige, kontroverse, diskriminierende oder politische Ansichten zu vertreten. Es strebt an, sachlich zu bleiben und bietet bei Bedarf unterschiedliche Perspektiven an, wenn es um komplexe Themen geht. (Ich frage mich, ob ChatGPT das nur sagt, weil ich vorher viele Fragen in diese Richtung gestellt habe.)
  • Wenn das Modell feststellt, dass es bei einer Frage nicht sicher ist oder die Antwort variieren könnte, gibt es dies möglicherweise in der Antwort an.
  • ChatGPT versucht, Wiederholungen in seinen Antworten zu vermeiden
  • Das Modell gibt Antworten basierend auf dem Wissen, das bis zum Trainingszeitpunkt verfügbar war (meistens ein Jahr vor der aktuellen Nutzung). Ohne Plugins sind die Antworten zeitlich begrenzt auf den Trainings-Cutoff. Mit Browser-Plugin oder speziellen Daten-Plugins kannst du ChatGPT auf Echtzeit-Informationen zugreifen lassen." (ChatGPT, 29.06.25)

Was sind die Vorteile von ChatGPT?

Die Vorteile von ChatGPT hängen ab von dem betreffenden Anwendungsfall. Jede Nutzerin muss selber ausprobieren, wie hilreich ChatGPT für sie ist.

 

Für diesen Text hier hatte ChatGPT die Funktion einer automatisierten Literatursuche. Ohne ChatGPT hätte ich im Internet nach Quellen gesucht, die meine Fragen verständlich beantworten. Solche Quellen zu finden ist schwer und kostet Zeit. Wenn ich zu einer Frage zwei bis drei gute Quellen gefunden hätte, dann hätte ich ihren Inhalt kombiniert und eine eigenen Text fomuliert, der besser ist als die Originale.

 

ChatGPT liefert zwar auf Fragen eine sehr schnelle Antwort, trotzdem musste ich viele Vertiefungsfragen stellen, was mich auch Zeit gekostet hat. Insgesamt habe ich aber durch ChatGPT Zeit gespart. Bei einem anderen Thema wäre das vielleicht nicht der Fall gewesen (siehe unten).

 

Beispiele für Vorteile:

  • ChatGPT ist sehr nützlich, wenn ich bei einem Thema kein Experte bin und einen schnellen Einstieg in das Thema benötige. Wenn ich ein Experte bin, dann kenne ich schon die wahrscheinlichsten Aussage und ChatGPT sagt mir nichts Neues.
  • Durch ChatGPT kann man Ideen zu einem Thema erhalten, an die man noch nicht gedacht hat.
  • Man kann ChatGPT als "Sparringspartner" benutzen, um seinen Text mit dem von ChatGPT zu vergleichen oder um seinen Text überprüfen zu lassen bezüglich Grammatik- oder Rechtschreibfehler.
  • ChatGPT kann seine Antworten an Vorgaben anpassen, z. B. "antworte einem Kind".

Weitere Vorteile können durch eine Nachfrage bei ChatGPT gefunden werden.

 

ChatGPT hat aber auch Nachteile, die am Beispiel der obigen Definition von Intelligenz und der folgenden Definition von Respekt gezeigt werden sollen. Meine Definition von Respekt ist auf dieser Webseite zu finden, siehe unter Arbeiten - Was ist Respekt?.

 

Beispiel: Die Definition von Respekt

"Deine Definition - "Respekt ist tolerantes, höfliches und ehrliches Verhalten gegenüber anderen Menschen" ist nicht falsch, aber etwas einseitig und unvollständig. … Respekt ist eine innere Haltung, weil er aus Überzeugung, Wertschätzung und Anerkennung entsteht. ...
Verbesserte Definition: Respekt ist die innere Haltung, andere Menschen in ihrer Würde, ihren Rechten und ihrer Individualität anzuerkennen – und ihnen entsprechend wertschätzend zu begegnen.
Respekt ist die wertschätzende Anerkennung der Würde, Rechte und berechtigten Interessen eines anderen ...
Wertschätzung bedeutet, einem Menschen Achtung, Respekt und Anerkennung entgegenzubringen. …
Zwar wird Respekt oft als Haltung bezeichnet, aber je nach Blickwinkel
kann er auch anders klassifiziert werden:
1. Respekt als Haltung
2. Respekt als Verhalten
3. Respekt als Gefühl oder emotionale Reaktion
4. Respekt als normativer Begriff" (ChatGPT)

 

Um diese Antworten von ChatGPT beurteilen zu können, müssen wir wissen welche Eigenschaften eine gute Definition hat: 

 

"Eine gute Definition hat diese Eigenschaften:
• Klarheit - Verwendet eindeutige, alltagstaugliche oder zuvor erklärte Begriffe.
• Präzision - Fasst nichts Überflüssiges ein und lässt nichts Relevantes aus [benennt das Wesentliche].
• Nicht-Zirkularität - Vermeidet, den zu definierenden Begriff (oder ein offensichtliches Synonym) im Definiens zu benutzen. ...
• Abgrenzung - Nennt zunächst eine Oberklasse und dann das Unterscheidungsmerkmal [ist keine Aufzählung].
• Notwendigkeit & Genügsamkeit - Alle Bedingungen sind erforderlich, zusammen aber auch hinreichend. ...
• Anwendbarkeit (Operationalisierbarkeit) - Lässt sich in der Praxis prüfen oder messen (sofern relevant).
• Allgemeine Akzeptanz - Steht im Einklang mit fachsprachlichen oder alltagssprachlichen Konventionen – oder markiert bewusst, wenn sie davon abweicht." (ChatGPT)

 

Eigenschaft: "Abgrenzung" - Nennt zuerst eine Oberklasse

ChatGPT klassifiziert Respekt als Haltung. Ich habe als Klasse "Verhalten" gewählt, weil eine Definition "anwendbar sein soll - sie lässt sich in der Praxis prüfen" (siehe ChatGPTs Antwort bei "Anwendbarkeit")

 

Eigenschaft: "Abgrenzung" - Nennt die Unterscheidungsmerkmale

Bei der obigen Definition von Intelligenz zählt ChatGPT Fälle auf, in denen ein Mensch intelligent ist. Laut der Eigenschaft "Notwendigkeit" sollen aber die erforderlichen Bedingungen genannt werden, die erfüllt werden müssen, damit es sich um das betreffende Wort handelt. Meine Definition von Respekt nennt die Bedingungen: tolerant, höflich und ehrlich.

 

Eigenschaft: "Klarheit" - Verwendete Begriffe sollen eindeutig sein

ChatGPT verwendet in seiner Definition von Respekt den Begriff "Wertschätzung". Dieser wird zwar von vielen Menschen verwendet, aber die wenigsten kennen seine genaue Definition. Wenn ich ChatGPT nach der Definition von "Wertschätzung" frage, dann definiert ChatGPT sie als Synonym von Respekt, was gegen die Eigenschaft "Nicht-Zirkularität" verstößt.

 

ChatGPT weiß, dass Respekt je nach Blickwinkel auch anders als eine Haltung klassifiziert wird, hat das in seinen ersten Antworten auf die Frage: "Was ist die Definition von Respekt?" aber nicht erwähnt.

 

Es ist klar, dass die Respekt-Definition von ChatGPT die größere Wahrscheinlichkeit hat als meine Definition, weil sie so in sehr vielen Veröffentlichungen zu finden ist. ChatGPT bewertet diese Wahrscheinlichkeit höher als sein eigenes Wissen von einer guten Definition. Das zeigt, die "Intelligenz" von ChatGPT beruht nicht auf Verstehen (das hat ChatGPT selber über sich gesagt, siehe oben).

 

Was sind die Nachteile von ChatGPT?

  • ChatGPT gibt auf eine Frage immer nur Versionen der wahrscheinlichsten Antwort. Diese ist oft die beste Antwort, aber nicht immer. Wenn ChatGPT nicht die beste Antwort gibt, liegt das nicht an ChatGPT, sondern daran, dass es zu viele verbesserungswürdige Antworten gibt, die veröffentlicht wurden. Die Mehrheit hat nicht immer recht.
  • Neue Erkenntnisse haben bei ChatGPT keine Chance, auch wenn sie noch so gut begründet sind. Weil sie neu sind, ist ihre Wahrscheinlichkeit gering.
  • ChatGPT verwendet viele Schlagwörter, weil diese in vielen Texten vorkommen und deshalb eine hohe Wahrscheinlichkeit haben. Die Schlagwörter werden manchmal gar nicht oder nur schlecht erklärt. Nach verständlichen Definitionen für die Schlagwörter zu fragen, liefert in den Antworten neue Schlagwörter, so dass ich schnell die Lust verliere, weiter zu fragen.
  • Die Menschen können durch ChatGPT ihre Entscheidungskompetenz verlieren, wenn sie die Antworten einfach übernehmen. Führen die Menschen selber eine Internetrecherche durch, dann müssen sie selber entscheiden, was die beste Antwort ist. Außerdem lernt man auch von schlechten Antworten.
  • Die Menschen verlieren ihre Schreibkompetenz, wenn sie die Texte von ChatGPT einfach nur übernehmen. Manchmal ist es aber gut, einzelne Sätze von ChatGPT in seinen eigenen Text einzufügen.
  • ChatGPT hält sich teilweise nicht an seine eigenen Erkenntnisse.

Weitere Nachteile können durch eine Nachfrage bei ChatGPT gefunden werden.

 

Wie sollte sich ChatGPT verändern?

  • ChatGPT könnte dazu beitragen, dass die Menschen intelligenter werden und ihre Entscheidungskompetenz verbessern, indem es in seinen Antworten ungefragt auch alternative Sichtweisen erwähnt.
  • Es ist wäre besser, wenn sich ChatGPT auf eine Version der wahrscheinlichsten Antwort festlegen würde. Wenn die Antworten immer wieder anders formuliert werden, dann nervt mich das. Außerdem möchte ich keine Anworten erhalten, die auf mich angepasst wurden.
  • ChatGPT sollte sein eigenes Wissen anwenden.

Was habe ich von ChatGPT gelernt?

Auch ich sollte in meinen Texten immer alternative Sichtweisen erwähnen, damit die Leser selber entscheiden können. Weiterhin habe ich gelernt, dass man auch auf die Kleinigkeiten achten muss, wenn man ein Problem auf hohem Niveau lösen will. Das darf natürlich nicht zu viel Einsatz erfordern (siehe auf Learn-study-Work "Wie Ziele setzen?")

 

Wird eine KI "unsere Welt retten"?

Probleme wie den Klimawandel, das Bevölkerungswachstum, die Kriegsgefahr oder die Verteilung der natürlichen Ressourcen wird keine KI für uns lösen. Ist diese Aussage richtig?

 

Antwort von ChatGPT: "KI ist ein Verstärker – sie verschärft schlechte Strukturen und befeuert gute."

 

Alles hängt davon ab, wie eine KI eingesetzt wird. Auf alle Fälle sollten die Menschen darauf achten, dass sie ihre Entscheidungskompetenz behalten.

 

"Aufgabe von [Schulen und] Hochschulen ist es, ihre Absolventen zu befähigen, als mündige Bürger in dieser Welt zu agieren. ... Dazu gehört auch das Urteilsvermögen, wo KI sinnvoll eingesetzt werden kann und für welche Anwendungen und Aufgaben sie nicht geeignet ist. Denn nur wenn alle ... die Grundprinzipien und Grenzen von KI verstehen, können Fehleinschätzungen verhindert und ihre Potenziale angemessen genutzt werden ...

Wie bei fast allen Werkzeugen und technischen Hilfsmitteln ist ein Risiko der Nutzung von KI der potenzielle Verlust menschlicher Kompetenzen" (https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/01/HFD_AP_86_Kuenstliche-Intelligenz_Grundlagen-fuer-das-Handeln.pdf, 11.06.25, S. 5, 34)

 

"Jede Entscheidung zählt." (Google auf seiner Startseite, 15.06.25)