- Smart Chiefs
- Posts
- Betreutes Denken: Macht KI uns faul?
Betreutes Denken: Macht KI uns faul?
Pink Floyd hatte recht - wir stehen in Flammen.
Last Call - Noch 2 PlĂ€tze fĂŒr das Smart Chiefs Retreat!
đ€ Erweitere dein Netzwerk um exzellente Kontakte
đ Lerne fĂŒr die Zukunft: Von Personal Branding bis KĂŒnstliche Intelligenz.
đđŒ Bewirb dich jetzt.
Hello Smart Chiefs,
wird mein Gehirn bald schrumpelig wie eine alte Rosine? Die Frage wurmt mich. đ§
Denn wÀhrend KI immer mÀchtiger wird und mir blitzschnell Antworten liefert, besteht die reale Gefahr, dass ich selbst das Denken einstelle. Vom Kochrezept bis zum LinkedIn-Post - AI ist einfach in allem schneller. Und ich als Mensch: ziemlich bequem.
Deshalb wird es Zeit aufzuwachen. Und der Moment, an dem ich genau das tat, war tatsÀchlich um 6.30 Uhr - am anderen Ende der Welt. Es war der Moment, als die KI mich dazu brachte, ihre eigene Existenz und meine Relevanz zu hinterfragen.
Januar 2025: Ich sitze allein in meinem LieblingscafĂ© âAnalogâ. Die StraĂen sind noch leer, die Sonne schon warm. Im Hintergrund versetzt mich die Schallplattenmusik zurĂŒck in die 70er. In diesem Moment fĂ€llt mein Blick auf ein Bild an der Wand: Es zeigt zwei MĂ€nner, die sich die Hand reichen. Einer von ihnen steht in Flammen. Es hat etwas von Mafia und Pablo Escobar. Ich will wissen, von wem es ist.

Ich mache, was viele inzwischen machen: Ich zĂŒcke mein Handy, schieĂe ein Foto und lade es in ChatGPT hoch. Die Antwort kommt schneller als mein Kaffee:
âDas Bild zeigt das Cover des Pink-Floyd-Albums âWish You Were Hereâ von 1975. Es symbolisiert Entfremdung und den Verlust von AuthentizitĂ€t.â
Treffer. Denn irgendwie wirkt das Bild heute aktueller denn je.
WĂ€hrend ich die Antwort lese, merke ich: Diese zwei MĂ€nner, der eine brennend, der andere hilflos daneben â das sind wir. Nur dass das Feuer heute digital ist.
Neugierig frage ich weiter: âKannst du das Symbol im Kontext der heutigen Zeit interpretieren? Welches Risiko bringt KI im Vergleich zu diesem Bild?â
Auch diese Antwort folgt prompt: âDer brennende Mann steht fĂŒr den Verlust der AuthentizitĂ€t. KI kann unsere KreativitĂ€t erweitern, aber auch ĂŒbernehmen. Der Handschlag symbolisiert eine unbewusste AbhĂ€ngigkeit: Wir geben uns der Technologie hin, ohne die Risiken zu verstehen.â
Und plötzlich ist da dieses mulmige GefĂŒhl: Eine KI, die mir ihren eigenen Beipackzettel vorliest. Eine Anleitung fĂŒr Risiken und Nebenwirkungen. Ich verkneife mir den âDenke wie Richard D. Prechtâ-Prompt und schalte wieder meinen eigenen Kopf ein. Denn genau das mĂŒssen wir jetzt mehr denn je tun:
Denken. Hinterfragen. Reflektieren.
Kennst du die Versuchung, alles zu glauben?
Ich liebe KI. Aber ich weigere mich, mich von ihr steuern zu lassen. Denn letâs face it: KI macht uns faul. Selbst beim Pink-Floyd-Cover schaltete ich nicht zuerst mein Hirn ein, sondern gleich ChatGPT. Eine Studie von Microsoft & Carnegie Mellon bestĂ€tigt meine Sorge: Je mehr wir uns auf KI verlassen, desto weniger hinterfragen wir.
Kommunikationswissenschaftler Michael Meyen von der LMU spricht sogar von âbetreutem Denkenâ (bald zu Gast bei mir auf YouTube!) Seine Warnung: âWir vertrauen nicht mehr auf unser eigenes Urteilsvermögen â wir lagern es an KI aus.â
Doch wĂ€hrend Wissen jahrhundertelang Macht war, erzeugt es KI jetzt in Sekunden. Das heiĂt: Wir mĂŒssen nicht mehr lange nach Antworten suchen â wir mĂŒssen besser darin werden, die richtigen Fragen zu stellen.
Deshalb habe ich drei mentale Frameworks entwickelt, um mit KI zu arbeiten â und dabei Mensch zu bleiben.
đ„ 1. Der Sokratische Dialog:
Nichts ist so mĂ€chtig wie eine gute Frage. Ich stelle Claude, ChatGPT & Co. Fragen wie: âWas wĂ€re, wenn das Gegenteil wahr wĂ€re?â â und fordere so die Antworten heraus.
đ„ 2. Das Aristoteles-Prinzip:
Verstehen bedeutet, beide Seiten eines Arguments zu kennen. Also lasse ich KI mit sich selbst streiten. Denn die Schönheit liegt in der Dialektik: Aus dem Wechsel der Perspektiven entstehen oft Erkenntnisse, auf die ich allein nie gekommen wÀre.
đ„ 3. Die Stoische Regel des âEmotional Reasoningâ:
Nur weil sich etwas richtig anfĂŒhlt, heiĂt das nicht, dass es auch richtig ist. Mein Schutz dagegen? Intellektuelle Demut. Zu akzeptieren, dass ich falschliegen könnte, ist kein Zeichen von SchwĂ€che, sondern von StĂ€rke.
Am Ende des Tages sehe ich es so: KI sollte ein Werkzeug bleiben â und nicht unser Verstand ersetzen. Solange wir neugierig bleiben, weiterfragen und unsere Menschlichkeit nicht an Algorithmen auslagern, kann KI uns unglaublich bereichern.
In diesem Sinne, work smart, not hard.
Und schickt mir menschliche Liebes-(oder Kritik)-Emails, damit ich weiĂ, dass hier keine Bots lesen đ
Eure, Laura
Wie hat dir der Smart Chiefs Newsletter diese Woche gefallen? |
Login oder Abonnieren um an umfragen teilzunehmen. |
YOUTUBE Countdown Running âAI auf den Punktâ:đ„
đ Abonniere jetzt den Kanal und bilde dich weiter. Start: MĂ€rz 2025.

Wurde diese E-Mail an dich weitergeleitet? Sign up here.
Du willst mit deinem Produkt oder Service Smart Chiefs im DACH-Raum erreichen? Hier klicken.
Hast du eine Idee oder Frage an mich? [email protected].