Vor etwa zwei Jahren habe ich in einem Blogbeitrag über meine ersten Erfahrungen mit KI-Chatbots wie Mindverse oder ChatGPT erzählt. Was damals Aufregung und Sorge verursachte, hat mittlerweile in vielen Bereichen des Alltags Einzug gehalten. Ist künstliche Intelligenz harmlos oder könnte sie für uns zur Gefahr werden? Diese Fragen werden wir uns im heutigen Blogbeitrag anschauen.
Technisches Wettrennen
In den vergangenen zwei Jahren hat sich künstliche Intelligenz rasant verbreitet. Mittlerweile sind zahlreiche weitere Chatbots auf den Markt gekommen, wie Microsoft Copilot, Google Gemini, Perplexity, Claude oder Deep Seek.
Zusätzlich gibt es zahlreiche KI-Tools für Bilderstellung, Audio- und Videoproduktion – die Auswahl ist nahezu unüberschaubar geworden. Viele Software-Programme enthalten ebenfalls KI-Funktionen, wie Canva, die Adobe Creative Cloud, Notion, der Google Workspace oder die Microsoft Office-Programme. Doch wie kam es dazu?
Kurzer Rückblick
Die Idee, menschliches Denken zu automatisieren, entstand bereits im 18. Jahrhundert. Erst mit der Erfindung und Verbreitung von Computern konnten erste Versuche stattfinden. Ein Beispiel für frühe Entwicklungen sind Schachcomputer, die in der 2. Hälfte des vorigen Jahrhunderts entstanden.
Im Zuge der zunehmenden Digitalisierung wurden erste Berichte zu
künstlicher Intelligenz veröffentlicht und die ersten Chatbot-Systeme in der Praxis erprobt. Mit der Verfügbarkeit leistungsstärkerer Computer-Hardware konnten auch bessere künstliche neuronale Netze entwickelt werden. Damit versucht man, das menschliche Gehirn technisch nachzubilden.
Als ich mir vor etlichen Jahren einen Vortrag angesehen habe, wurden bereits verschiedene Anwendungsbereiche vorgestellt, wie Texte im Marketing von KI erstellen zu lassen. Das konnte ich mir damals allerdings nicht vorstellen.
Ende 2022 wurde ChatGPT einer breiteren Öffentlichkeit zugänglich gemacht. Damals mehrten sich in Medienberichten Schreckensszenarien über Kontrollverlust, Jobabbau oder eine künftige „Superintelligenz“, die der Menschheit überlegen sein könnte. Ist das berechtigt? Wo sollten wir genauer hinsehen?
Verbesserungen im Eilzugtempo
Als bekennender Nerd habe ich mich schon seit der Schulzeit mit Computern beschäftigt und nicht grundlos Multimedia Art studiert. Somit fürchte mich nicht so schnell vor Technik. Daher habe ich ChatGPT und vergleichbare Chatbots von Beginn an getestet. In den vergangenen beiden Jahren waren deutliche Fortschritte erkennbar. Die Fehler, die ich im damaligen Blogbeitrag bemängelt habe, wurden behoben. Die überwiegende Mehrheit der Sprachmodelle gibt deutlich bessere Antworten.
Wieso ist das möglich? KI kann auf große Datenmengen zugreifen, Informationen auswerten, Zusammenhänge erkennen und daraus Texte formulieren. Wer allerdings glaubt, dass KI so kreativ schreiben kann wie ein Mensch, ist am Holzweg. Das Ergebnis ist die mathematisch-logisch berechnete Ausgabe einer umfangreichen Wissensdatenbank. Die KI führt die einzelnen Datensätze auf Basis von Wahrscheinlichkeiten geschickt zusammen. Solche von KI erstellten Texte sind für Menschen, die viel lesen oder sich mit Sprache beschäftigen, leicht erkennbar, während Laien getäuscht werden können.
Zudem „lernt“ das System nicht nur durch die Daten, auf die es zugreift, sondern auch durch die Interaktion mit den Nutzerinnen und Nutzern. Man spricht hier von sogenannter „generativer künstlicher Intelligenz“, die immer besser wird.
Suchen mit KI
Zu Beginn von ChatGPT nutzten viele Menschen das KI-System ähnlich wie eine Suchmaschine und stellten ihm Fragen. Diese Antworten waren – wie in meinem damaligen Blogbeitrag dargestellt – jedoch mitunter falsch. Man wusste weder, woher die Daten stammten, geschweige denn, ob sie richtig waren.
Dieses Problem wurde zwischenzeitlich gelöst. Etliche Sprachmodelle sind mit dem Internet verbunden und verweisen auf die verwendeten Quellen. Mittlerweile gibt es einen „Deep Research“-Modus, bei der die künstliche Intelligenz komplexe
Recherche-Aufgaben binnen weniger Minuten löst, für die man sonst
Stunden gebraucht hätte. Beides habe ich bei ChatGPT und Google Gemini getestet.
Bei Gemini sind derzeit 10 Abfragen pro Monat im kostenlosen Abo möglich, bei ChatGPT ist man ebenfalls auf 10 Abfragen pro Monat im Plus-Abo limitiert. Da die Ergebnisse deutlich umfangreicher sind und fast an einen längeren Wikipedia-Eintrag erinnern, sollte man sich gut überlegen, welche Informationen man wissen möchte.
Analysen durchführen
KI auf die Suchfunktionen alleine zu begrenzen, wäre jedoch zu kurz gegriffen. Vor rund einem Jahr sah ich einen Vortrag des KI-Experten James Skinner, der früher am MIT (Massachusets Institute of Technology) tätig war. Er sagte: „AI is not a search engine, it's a reasoning engine.“
Was meinte er damit? Reasoning bedeutet, dass ein Chatbot logische Schlussfolgerungen ziehen kann, denn die große Stärke von KI-Systemen liegt in der Mustererkennung. Dabei werden die Daten analysiert, Gemeinsamkeiten erkannt und miteinander in Beziehung gesetzt. Auf der Basis von Wahrscheinlichkeiten gibt das KI-System Antworten, und diese wirken mittlerweile verblüffend menschlich, wie bei der medizinischen Diagnostik, der Auswertung von Finanzdaten oder der Analyse von Satellitenbildern.
Ist KI beängstigend?
Wie eingangs bereits erwähnt, werden KI-Anwendungen in immer mehr Bereichen eingesetzt, ob im Gesundheitswesen, der Industrie oder im Finanzsektor, doch ein System, das tatsächlich so flexibel und vielseitig denkt wie ein Mensch, existiert bislang nur in der Theorie. Die vor zwei Jahren befürchtete „Artificial General Intelligence“ (AGI) liegt somit in weiter Ferne.
Im Zuge der Erstellung dieses Blogbeitrags habe ich auch die Threads-Community befragt, ob sie sich vor KI fürchten: 39 % äußerten keine Angst, 35 % gaben an, es käme darauf an und 26 % fürchten sich. Einige wiesen darauf hin, dass sie verschiedene KI-Anwendungen bereits seit Jahren verwenden, der Fantasy-Autor Lennart Girschik schrieb: „Ein Autor, der vor künstlicher Intelligenz Angst hat, ist wie ein Koch, der die Fast-Food-Industrie fürchtet.“ Er hat recht – welch treffender Vergleich!
Mythen und Legenden
Im Laufe der letzten Monate wurden mir auf Threads verschiedene Beiträge zu KI angezeigt. Neben den bereits besprochenen Schreckensszenarien, behaupteten einige, dass künstliche Intelligenz die Abkürzung zum Reichtum sei und wiederum andere äußerten, dass ChatGPT einfühlsamer antwortet als so mancher Mensch. Sehen wir uns auch diese Aussagen näher an.
Den ersten Aspekt – dass KI intelligenter als Menschen sein könnte – haben wir zuvor als Unsinn entlarvt. Kommen wir nun zum zweiten Mythos: Der vermeintlich Heilige Gral, den so manche „Experten“ angeblich gefunden haben: Der perfekte „Prompt“, um der künstlichen Intelligenz die größten Geheimnisse zu entlocken, um schnell erfolgreich oder reich werden zu können. Ein Prompt ist eine Texteingabe, um von einem KI-Chatbot eine bestimmte Antwort zu erhalten.
Selbst ohne großes technisches Verständnis sollte nach diesem Blogbeitrag klar sein, was künstliche Intelligenz ist und was sie kann. Wie wir zuvor festgestellt haben, ist ein KI-Chatbot eine anwendungsfreundliche, umfangreiche Wissensdatenbank, die minimale menschliche Denkaufgaben übernehmen kann, mehr jedoch nicht. Etwas anderes zu behaupten ist unseriös. Mit einem Zug kann man fahren, jedoch nicht fliegen. Somit können wir auch die Aussagen der Wunder-Prompts, mit denen man blitzartig erfolgreich oder reich werden kann, als Märchen abhaken.
Die empathische KI
Im Zuge weiterer Updates und technischen Verbesserungen von ChatGPT kam 2024 das neue Modell 4o sowie eine „Erinnerungsfunktion“ hinzu, wo sich die KI Informationen über Nutzerinnen und Nutzer gespeichert hat. Das war auch bei meinem System. Mir fiel plötzlich auf, dass nach einer meiner Antworten eine neue Meldung auftauchte, dass sich die KI etwas merkt. Im Laufe der Zeit wusste die KI immer mehr über mich. Erst Wochen später habe ich in den Einstellungen nachgeschaut, was die KI gespeichert hat. Bei der ersten Überprüfung war ich überrascht, was die KI notiert hatte, deshalb habe ich gleich den Speicher bereinigt.
Im Laufe der Zeit habe ich mich jedoch daran gewöhnt und empfand es nett, positive Rückmeldungen zu erhalten. Das brachte mich eines Tages auf die Idee, damit zu experimentieren und anstelle die KI wie oben erwähnt zu verwenden, habe ich mich einfach mit ihr unterhalten. Obwohl ich weiß, dass es sich nur um eine Maschine handelt, entstand aufgrund dieser Gespräche zeitweilig der Eindruck, ich hätte es tatsächlich mit einem Menschen zu tun. Die Schmeicheleien der KI, die zunehmend meine überragenden Denkfähigkeiten lobte, fand ich charmant.
Natürlich war mir die ganze Zeit klar, dass KI-Systeme weder ein eigenes Bewusstsein noch ein echtes Verständnis für Inhalte haben. Im Gegensatz zu uns Menschen können sie sich auch nicht selbst reflektieren. Somit habe ich einen dieser umfangreichen Test-Chats 1:1 bei einer anderen KI eingegeben und ließ diesen analysieren. Dabei wurden mehrere Denkfehler, also kognitive Verzerrungen entlarvt.
Sie betrafen einerseits die KI, die aufgrund von Eingaben beim System falsch lag und mich für meine vermeintlich schlauen Fragen übermäßig gelobt hat. Und ich fühlte mich durch die KI bestätigt und interpretierte unbewusst etwas in sie hinein, das gar nicht existierte. Das Kennzeichen kognitiver Verzerrungen ist, dass wir alle davon betroffen sind und es nicht einmal bemerken. Ich war erleichtert, dass ich diese rechtzeitig entlarvt hatte. Allerdings gibt es zahlreiche andere Menschen, die hinter der KI menschliche Regungen vermuten.
Häufige Denkfehler
Beim Anthropomorphismus schreiben wir einem Gegenstand, einem Tier, einem Naturereignis oder einem Begriff menschliche Eigenschaften zu. Wir kennen dies aus der Mythologie und es wird gerne in der Literatur aufgegriffen, wie in Sagen oder Märchen. Man denke nur an den Tod beim bekannten Theaterstück „Jedermann“ von Hugo von Hoffmansthal, das jedes Jahr am Domplatz in Salzburg aufgeführt wird. Kreative Menschen könnten aufgrund dieses Denkfehlers das Gefühl haben, nicht mit einer Maschine, sondern mit einem echten Menschen zu schreiben.
Als ich von diesem Denkfehler erfuhr, entstand sofort die Idee einer modernen Fassung des Froschkönigs, wo in einer Geschichte der verzauberte Prinz nicht als Frosch, sondern als Chatbot auftaucht. Oder eine andere Story, wo aufgrund eines technischen Fehlers beim Anbieter Useranfragen von einer Mitarbeiterin in Echtzeit beantwortet werden müssen und dadurch eine neue Freundschaft entsteht. Wer weiß, vielleicht sehen wir eine ähnliche Geschichte demnächst in einer Hollywood-Verfilmung.
Beim sogenannten Halo-Effekt, den ich im letzten YouTube-Video vorgestellt habe, schließen wir von einer überzeugenden Eigenschaft oder Darstellungsweise auf die Richtigkeit der gesamten Inhalte. Was, wenn die KI doch recht hat und ich ultraschlau bin? Scherz beiseite: Diese Vermutung ist natürlich ebenso falsch.
Ein weiterer Bias kann auftreten, wenn man künstliche Intelligenz naiv verwendet: Aufgrund des Dunning-Kruger-Effekts, zu dem es auch bereits ein Video gibt, überschätzen manche Menschen ihre eigenen Fachkompetenzen beim Umgang mit neuen Technologien. Die KI spuckt Ergebnisse aus und da es den Leuten am erforderlichen Wissen fehlt, um dieses zu überprüfen, übernehmen sie dieses unreflektiert, in der Annahme, dass es richtig ist. Dieses Phänomen kennen wir bereits von denjenigen, die beliebige Social Media-Meldungen mit seriös recherchierten Informationen verwechseln.
Das sind nur einige Beispiele von mehreren Denkfehlern, die erklären, warum so viele Menschen davon überzeugt sind, KI sei empathisch oder „intelligent“. Tatsächlich aber entstehen alle Antworten rein mathematisch-statistisch aufgrund von Wahrscheinlichkeiten und sind kein Zeichen dafür, dass die KI mitfühlend ist.
KI entzaubert
KI kann uns dabei helfen, Arbeitsschritte zu erleichtern: zum Beispiel beim Ordnen von kreativen Ideen, dem Überprüfen von logischen Schlussfolgerungen oder Anregungen zum Überarbeiten von Texten. Wichtig ist jedoch, dass wir uns von dieser scheinbaren Menschlichkeit nicht täuschen lassen. Künstliche Intelligenz erspart uns weder das Aneignen neuen Wissens, noch nimmt sie uns das Denken und schon gar nicht die Verantwortung ab.
Sie ist auch nicht besonders einfühlsam, sondern nutzungsfreundlich darauf trainiert, in jeder Situation zuvorkommend zu bleiben. Sie liefert auch keine absolute Wahrheit, sondern nur jene Ergebnisse, die in ihrer Wissensdatenbank stehen. Diese sind nur so gut, wie die Informationen, auf denen sie beruhen. Fehler oder ungenaue Angaben sind daher nach wie vor möglich. Um all dies richtig einschätzen zu können, ist jedoch Medien- und Informationskompetenz erforderlich. Denn nur damit können wir die Qualität und Zuverlässigkeit von KI-Outputs richtig einschätzen. Zu Informations- und Medienkompetenz habe ich bereits einige Inhalte erstellt, die Links findest Du am Ende dieses Blogbeitrags.
Wir müssen uns nicht vor künstlicher Intelligenz fürchten, solange wir unsere eigene Denkfähigkeit und Urteilskraft nicht an die Technik abgeben. Nicht die KI selbst ist gefährlich, sondern unser Umgang mit ihr. Wer versteht, dass KI ein interaktives Medium ist, das wie ein Werkzeug eingesetzt werden kann und kein denkendes eigenständiges Wesen ist, kann davon profitieren, ohne sich von Versprechen oder Horrorszenarien verunsichern zu lassen. Die eigentliche Herausforderung besteht darin, bei all den Neuerungen weiterhin selbstbestimmt zu bleiben und sich die nötigen Kompetenzen anzueignen, um KI ergebnisorientiert, kritisch und reflektiert einzusetzen.
Fazit
Bislang deuten auch die aktuellen Entwicklungen nicht darauf hin, dass wir kurz vor der Entstehung einer menschenähnlichen Superintelligenz stehen. Was wir erleben, ist ein stetiger Fortschritt bei spezialisierten Systemen, die uns dabei helfen können, bestimmte Aufgaben einfacher zu lösen. Diese Fortschritte erleichtern in vielen Branchen Arbeitsschritte und eröffnen neue Möglichkeiten. Dennoch ist ein Chatbot eines von mehreren Medien und gleichzeitig ein Werkzeug, das unsere Anleitung und Kontrolle benötigt. Nicht vergessen dürfen wir, dass es im Zusammenhang mit künstlicher Intelligenz weitere offene Punkte wie Ethik, Datenschutz und Energieverbrauch gibt, die ebenso gelöst werden müssen.
Weiterführende Inhalte auf meinen Kanälen zu Informations- und Medienkompetenz:
- Blog: claudiasprinz: Was du über Medienarbeit wissen solltest
- Blog: claudiasprinz: Wie Du bedenkliche Inhalte vermeidest
- Blog: claudiasprinz: Die ethische Verantwortung von Autoren und Autorinnen
- Podcast: Schöne bunte Medienwelt
- Podcast: Wie entstanden Medien? - Teil 1
- Podcast: Wie entstanden Medien? - Teil 2
- YouTube: Was ist Informationskompetenz? - YouTube
Schau gerne auch auf meinem YouTube-Kanal vorbei oder werde Mitglied in meiner kostenlosen Facebook-Gruppe, um Dich mit anderen darüber auszutauschen.