Die KI klickt, du haftest. 🤯

5 Top Links

Willkommen an die 34 neuen Smart Chiefs, die diesen Newsletter neuerdings lesen. Viel Spaß!

Hello Smart Chiefs,

in der letzten Woche hat die KI-Software OpenClaw eine Debatte entfacht, die weit über Technik hinausreicht. Es geht nicht mehr nur um das, was KI kann, sondern um das, was sie darf. Die Meta-Managerin Summer Yue erlebte auf X nämlich exakt das, was viele im Umgang mit KI befürchten: Kontrollverlust. Ihr OpenClaw-Bot begann eigenmächtig, massenhaft E-Mails zu löschen – und sie war trotz Fachkenntnisse nichts mehr als eine machtlose Zuschauerin (dokumentiert via Business Insider).

Original-Post auf X

Für mich markiert die Szene einen Wendepunkt: Wir erleben den Übergang von einer KI, die antwortet, zu einer KI, die autonom exekutiert.

Heute im Smart Chiefs Newsletter: 

  • Wenn Software nicht mehr nur auf Befehle wartet, sondern eigenständig handelt, wird die menschliche Urteilskraft zur wichtigsten Brandmauer gegen das digitale Chaos.

  • Die Top Links der Woche

  • Und wie immer eine kurze Umfrage, wie euch der Newsletter heute gefallen wird. Merci.

Vom Wochenendprojekt zum globalen Disruptor

Die Entstehungsgeschichte von OpenClaw grenzt an digitale Alchemie: Der österreichische Entwickler Peter Steinberger startete es als improvisiertes Wochenendprojekt. Was als simpler „WhatsApp Relay“ begann, entwickelte sich binnen Wochen zu einem Open-Source-Agenten, der mit über 100.000 GitHub-Stars viral ging (Github ist eine Plattform für Programmierer und Softwareprojekte. Man kann es sich wie eine Mischung aus einem riesigen Online-Speicher (wie Dropbox) und einem sozialen Netzwerk für Code vorstellen.)

Das Besondere: OpenClaw operiert direkt auf dem Endgerät und klinkt sich in unsere Lebensadern ein – von WhatsApp und Slack bis hin zu Teams und E-Mail. Es ist kein bloßer Textgenerator mehr. Es ist ein digitaler Stellvertreter, der Dateien liest, Befehle ausführt und komplexe Aufgaben über App-Grenzen hinweg orchestriert. Ob Newsbriefing, Reiseorganisation oder das Kuratieren von Chats: Die KI verlässt den Chat-Modus und wird zum aktiven Mitarbeiter. Alles natürlich unter der Voraussetzung, dass wir wissen, wie man das Ding zum Laufen bekommt. Denn es ist technisch definitiv komplexer als die Bedingung von ChatGPT.

Das Risiko: Die „Delegations-Falle“

Doch diese Effizienz hat einen Preis. Microsoft warnt davor, OpenClaw wie die Ausführung von „nicht vertrauenswürdigem Code mit dauerhaften Zugangsdaten“ zu behandeln. Cisco-Forscher werden deutlicher und sprechen von einem „Security Nightmare“.

Das eigentliche Wagnis ist dabei aber aus meiner Sicht weniger der technische Fehler, sondern die schleichende Abgabe von Handlungsmacht. Wir riskieren, die KI zu bevollmächtigen, bevor wir die kulturellen und psychologischen Konsequenzen verstanden haben. Die Kernfrage lautet: Was passiert mit unserem Urteilsvermögen, wenn die Maschine nicht mehr nur unser Werkzeug ist, sondern in unserem Namen entscheidet?

Drei Smart-Chiefs-Thesen zur neuen Ära der Agenten

1. Die Demokratisierung der Disruption 

Noch vor wenigen Jahren brauchte es für technologische Durchbrüche große Unternehmen, große Teams und große Budgets. Heute reicht manchmal eine einzige Person, um ein Tool zu bauen, das innerhalb weniger Tage globale Aufmerksamkeit bekommt. Das ist erstmal gut, denn Innovation wird schneller und Zugänge werden demokratischer. Die neue Realität: Technologische Macht verteilt sich neu.
Doch das klingt romantischer, als es ist. Denn wenn Einzelne in sehr kurzer Zeit Werkzeuge bauen können, die Millionen Menschen beeinflussen, brauchen wir ein neues Niveau der Einordnung. Nicht alles, was schnell gebaut werden kann, ist auch schnell verstanden. Nicht alles, was möglich ist, ist ausgereift.

Die entscheidende Kompetenz der Zukunft ist deshalb nicht nur, KI zu nutzen oder zu bauen, sondern sie klug einordnen zu können: in Folgen, Nebenwirkungen und Einfluss auf uns als Gesellschaft.(Für mittelständische Firmen machen wir genau das mit unserem KI-Briefing “AI Americano”. Lerne hier mehr).

2. Verantwortung ist nicht outsourcbar 

Solange KI nur Vorschläge macht, fühlen wir uns noch klar in der Entscheider:innen-Rolle. Doch Systeme wie OpenClaw verschieben genau diese Grenze. Sie formulieren nicht nur, sie führen aus und übernehmen damit teilweise unsere Verantwortung.

Das ist verführerisch, aber Verantwortung lässt sich nicht outsourcen, sie bleibt menschlich. Je autonomer die Maschine, desto ernster müssen wir unsere Verantwortung nehmen. Für mich ist das hier also das Credo im Umgang mit KI: Ich delegiere so, dass immer klar ist, dass die Verantwortung bei mir liegt. Im Zweifel muss das dann in der exakten Anweisung sein, was eine KI darf und was nicht. Das setzt technisches Know-How voraus und macht jeden User fast schon zum Juristen seiner eigenen KI.

3. Der Mensch als moralische Instanz 

Dieser Punkt knüpft an Punkt 2 an. Die spannendste Veränderung ist für mich nicht technischer, sondern kultureller Natur. Wenn wir KI nicht mehr nur als Werkzeug, sondern als Agent benutzen, verändert sich nämlich auch unser Selbstbild. Arbeit, Entscheidungen, sogar Kompetenzen werden neu zu definiert, bis wir uns fragen, wofür wir eigentlich noch den Menschen brauchen.

Die falsche Antwort wäre: für alles, was die Maschine noch nicht kann.
Denn dann definieren wir den Menschen nur noch über den Rückstand der Technologie.

Die bessere Antwort ist für mich: Der Mensch bleibt dort unersetzlich, wo es um Urteilskraft, Haltung, Verantwortung, Beziehung und Sinn geht. Eigentlich hält uns die KI damit doch einen ganz schönen Spiegel vor: Sie zeigt uns nicht nur, was Maschinen heute können, sondern auch, was wir als Menschen nicht verlernen dürfen.

Und mit diesen Denkanstößen schicke ich euch jetzt in den Rest der Woche!

Work smart, not hard.
Deine Laura

PS: Du hast in dem Text gemerkt, dass es wieder Updates gibt, von denen auch ich noch nichts weiß? Schreib mir eine E-Mail. Und: Teile diesen Newsletter mit anderen Smart Chiefs. Noch immer made by humans ❤️

🚀 Smart Links

🤖 Upgrade für Grok! Mit der neuen Version 4.20 wird xAI zum digitalen Architekten. Das Modell zerlegt deine Anfragen in Einzelteile und lässt spezialisierte Sub-KIs die Arbeit machen. Medizin, Mathe oder Ethik? Jeder kriegt seinen Experten. Wer die maximale Performance der „Heavy“-Version will, braucht allerdings ein Premium-Abo.

📘 Anthropic liefert mit dem „AI Fluency Index“ eine spannende (und mahnende) Erkenntnis: Wir lassen uns von schöner Optik blenden. Die Analyse von 10.000 Claude-Gesprächen zeigt, dass „polierter“ Output die kritische Distanz schrumpfen lässt. Besonders gefährlich: Erstellt die KI sogenannte „Artefakte“ – wie Grafiken oder Dokumente –, sinkt die Bereitschaft der Nutzer zum Faktencheck rapide. Das Design suggeriert eine Kompetez, die wir dann oft ungeprüft übernehmen.

 🧠 Wenn du dich fragst, “Was passiert eigentlich im 'Gehirn' der KI, während sie rechnet?", dann ist das Google-Paper über Deep-Thinking Tokens ein Must-Read. Forscher haben einen Weg gefunden, zu messen, wann eine KI wirklich „hart nachdenkt“ und wann sie nur oberflächlich Text produziert. Fakt: Mehr Text bedeutet nicht mehr Intelligenz.

🎬 „Die Leute rennen uns die Türen ein“ – wie baut man ein Voice-AI-Unternehmen mit 330 Mio. ARR? Gordian Braun, Growth Lead Europe bei ElevenLabs, kennt die Antwort. Der Y-Combinator-Alumnus und erfahrene Investor bringt 17 Jahre Startup-Expertise mit, um den europäischen Markt zu erobern. Im Fokus: Die Skalierung der Agents-Plattform und die Frage, wie ElevenLabs vom Dubbing-Projekt zum globalen KI-Audio-Pioneer aufstieg.

Vibe Check: Wie hat dir der heutige Newsletter gefallen?

Login oder Abonnieren um an umfragen teilzunehmen.

*Dieser Newsletter enthält Affiliate Links. Wenn Du auf diese Links klickst und einen Kauf tätigst, erhalte ich eine Provision. Für Dich entstehen dabei keine zusätzlichen Kosten. Meine Partner wähle ich mit großer Sorgfalt aus.

Wurde diese E-Mail an dich weitergeleitet? Sign up here.

Hast du eine Idee oder Frage an mich? [email protected].

1