Künstliche Intelligenz ist überaus praktisch für Aufgaben, die man schnell erledigt haben will oder für die man keine ausreichenden Fähigkeiten besitzt. Ein kurzer Report ist rasch generiert, ein Bild braucht nur wenige Sekunden zum Laden. Kein Wunder, dass man da geneigt ist, immer öfter auch bei Tasks auf KI zurückzugreifen, die man davor selbst erledigt hat. Das kann natürlich seine Vorteile haben, wenn man sich dadurch Zeit erspart, die man anderswo produktiv nutzen kann. Allerdings können sich auch durchaus Schattenseiten auftun, wenn man sich zu sehr auf KI verlässt.

KI kann ein äußerst nützliches Tool zur Unterstützung sein. Weiß man, wie man KI richtig einsetzt, welche Aufgaben man ihr überlassen kann, und welche man lieber selber erledigen sollte, so kann man durchaus schnellere und bessere Ergebnisse erzielen, als man durch rein menschliche Arbeit geschafft hätte. Genau hier liegt aber der wichtige Punkt: Dies ist nur dann möglich, wenn man sich bewusst ist, wann und vor allem auch wie man KI verwenden kann und sollte. Nutzt man KI nicht mehr bloß zur Unterstützung, sondern verlässt sich zum großen Teil auf sie, dann riskiert man den Verlust wichtiger kognitiver Skills wie kritisches Denken, Problemlösen, Entscheidungsfinden und Kreativität. Auch der Verlust sozialer Skills wie etwa Zusammenarbeit kann auftreten, da die Interaktion mit anderen Menschen durch den Einsatz von KI zur Lösungsfindung oft „überflüssig“ scheint.

Foto von TSD Studio auf Unsplash

Im Hinblick auf den Abbau der kognitiven Fähigkeiten kann insbesondere das sogenannte Kognitive Offloading zum Problem werden, was bedeutet, dass man sich Aufgaben erspart, die mentalen Aufwand benötigen würden. Bei einigen Tasks ist dies durchaus kein Problem, etwa wenn man sich nicht unnötige Informationen extra ins Gedächtnis einprägt, die man genauso gut in einer Liste speichern und dann daraus abrufen kann. Geht es allerdings um Aufgaben wie einfache Kopfrechnungen oder Denkaufgaben, hat es durchaus Sinn, diese nicht von KI erledigen zu lassen, sondern sich selbst ein wenig anzustrengen, um die eigenen mentalen Fähigkeiten etwas zu trainieren.

Ein weiterer kritischer Punkt beim Verlassen auf KI ist, dass auch diese Fehler machen kann. So kann es etwa passieren, dass eine KI völlig frei erfundenen Output auf eine Anfrage hin produziert, wenn sie die Antwort nicht kennt. Dies kann sogar so weit gehen, dass sie auch nicht existierende Quellen liefert, um ihre Falschaussagen zu untermauern. Wird dann diesem Output der KI blind vertraut und dessen falscher Inhalt nicht kritisch hinterfragt, so kann das fatale Folgen wie etwa Fehldiagnosen oder falsche Therapieempfehlungen im medizinischen Bereich haben.

Noch ein Problem von KI ist, dass sie meist sehr große Datenmengen benötigt. Die Datensets, mit denen sie arbeitet, sind jedoch oft nicht vorurteilsfrei, was zu unfairen oder gar diskriminierenden Ergebnissen führen kann, etwa im Recruiting-Prozess. Lernt eine KI etwa unabsichtlich anhand der Lebensläufe bisheriger Mitarbeiter:innen nicht nur, was wichtige Qualifikationen für den Beruf sind, sondern auch, dass eher Männer als Frauen, eher Stefans als Mohammeds, oder eher jüngere als ältere Personen dem Bild der idealen Mitarbeiter:innen entsprechen, so kann ihre Auswahl sehr vorurteilsbehaftet sein. Dadurch, dass die Prozesse, die die KI bei ihrer Entscheidungsfindung durchläuft, von Menschen oft nicht einsehbar sind, können solche ethischen Probleme lange unbemerkt bleiben.

Foto von Amy Elting auf Unsplash

KI kann also eine große Bereicherung im Lern- sowie im Arbeitsalltag sein, solange man sich bewusst ist, welche Schwächen sie hat und wie man sie einsetzen sollte, um in keine Fallen zu tappen. Weiß man darum Bescheid, für welche Aufgaben sie geeignet ist, wo ihre Schwierigkeiten liegen und in welchen Bereichen es Sinn macht, sich mehr auf menschliche Fähigkeiten zu verlassen, so spricht nichts dagegen, vermehrt mit KI zu arbeiten. Genau hier ist allerdings wichtig: Man sollte sich bereits im Vorfeld bewusst sein, was man mit KI machen kann und wo man unbedingt noch einmal nachprüfen muss – und das ist Wissen, das nicht alle Leute, und insbesondere die, für die KI eigentlich noch sehr neu ist, besitzen.

Das Thema Künstliche Intelligenz ist durchaus interessant sowie relevant im Hinblick auf den Frieden, weil ein unkritischer Einsatz von KI zu falschen Entscheidungen, Ungleichheit und Diskriminierung führen kann und damit Konflikte verstärkt. Wenn Menschen zu sehr auf KI vertrauen und weniger selbst denken oder zusammenarbeiten, können wichtige soziale und kognitive Fähigkeiten verloren gehen. Ein bewusster Umgang mit KI hilft hingegen, solche Risiken zu vermeiden und ein friedliches Zusammenleben zu fördern.

 

Quellen:
Aldosari, B., Aldosari, H., & Alanazi, A. (2025). Challenges of artificial intelligence in Medicine. Studies in Health Technology and Informatics, 323, 16–20. https://doi.org/10.3233/shti250039

Alhur, A. A., Khlaif, Z. N., Hamamra, B., & Hussein, E. (2025). Paradox of AI in higher Education: Qualitative inquiry into AI dependency among educators in Palestine. JMIR Medical Education, 11, e74947. https://doi.org/10.2196/74947
De-Giorgio, F., Benedetti, B., Mancino, M., Sala, E., & Pascali, V. L. (2025). The need for balancing ’black box’ systems and explainable artificial intelligence: A necessary implementation in radiology. European Journal of Radiology, 185, 112014. https://doi.org/10.1016/j.ejrad.2025.112014
Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688. https://doi.org/10.1016/j.tics.2016.07.002
Gong, X., Liu, W., & Shang, Z. (2025). Ethical challenges in artificial intelligence-based mental health interventions. Academic Journal of Naval Medical University, 46(8), 970–976. https://doi.org/10.16781/j.CN31-2187/R.20250449
Grosse, K., & Alahi, A. (2024). A qualitative AI security risk assessment of autonomous vehicles. Transportation Research Part C Emerging Technologies, 169, 104797. https://doi.org/10.1016/j.trc.2024.104797
Karamuk, E. (2025). The automation trap. In Advances in computational intelligence and robotics book series (pp. 147–170). https://doi.org/10.4018/979-8-3373-0122-8.ch007
Nawaz, S., Ahmad, K., Khamash, O., Khan, E., & Mendonca, R. (2025). Hallucination in artificial intelligence and its implications on anesthesiology practice and patient outcomes. Anaesthesia Pain & Intensive Care, 29(5), 376–381. https://doi.org/10.35975/apic.v29i5.2873
Samanta, S. K., & Chakraborty, A. (2026). Trust me, I’m wrong: The perils of AI hallucinations, a silent killer. Journal of Information Technology Teaching Cases. https://doi.org/10.1177/20438869261423221

One Comment

  1. Barbara Kasper 23. April 2026 at 10:49 - Reply

    👍

Leave A Comment Antwort abbrechen

Von: Miriam

23. April 2026

Bild: Foto von Agung Raharja auf Unsplash

Weitere Beiträge zum Thema:

Blog abonnieren

Loading

Wir informieren Sie, wenn ein neuer Blogbeitrag erscheint.