Setzt du auf Geld - oder Moral? 😇

5 Top Links

Willkommen an die 21 neuen Smart Chiefs, die diesen Newsletter neuerdings lesen. Viel Spaß!

Hello Smart Chiefs,

stellt euch vor, ihr zieht eine klare moralische Grenze, und plötzlich erklärt euch die mächtigste Regierung der Welt zum Sicherheitsrisiko.

In den letzten Tagen erleben wir im Silicon Valley einen Krimi, der sich wie das Drehbuch zu „Oppenheimer 2.0“ liest. Es geht um Macht, Verrat und die Frage, ob Haltung in der Tech-Welt heute ein Todesurteil für das eigene Unternehmen bedeutet.

Heute im Smart Chiefs Newsletter: 

  • Wie wir als Käufer:innen eine Entscheidung gegen oder für unsere ethischen Standards treffen können - und warum das wichtig ist.

  • Die Top Links der Woche

  • Und wie immer eine kurze Umfrage, wie euch der Newsletter heute gefallen wird. Merci.

Aber fangen wir vorne an: Was ist eigentlich passiert?

Das US-KI-Unternehmen Anthropic (Claude) hatte 2025 einen 200 Millionen Dollar-Deal mit der US-Regierung ausgehandelt. Jetzt kam es zum Konflikt, weil CEO Dario Amodei sich standhaft weigerte, zwei „rote Linien“ seiner Firma zu überschreiten: Seine KI-Modelle sollen niemals für massenhafte Inlandsüberwachung oder vollständig autonome Waffensysteme eingesetzt werden. Er betonte, dass er diese Zugeständnisse gegenüber dem Pentagon „guten Gewissens“ nicht machen könne.

Die Reaktion der US-Regierung war beispiellos: Erst wies Präsident Trump alle Behörden an, die Nutzung von Claude einzustellen. Kurz darauf stufte Verteidigungsminister Pete Hegseth Anthropic als „supply chain risk“ (Risiko für die Lieferkette) ein. Das ist eine der schärfsten Maßnahmen, die die US-Regierung gegen ein Unternehmen verhängen kann und Anthropic faktisch von allen Regierungsgeschäften abschneidet.

Kampf der Ideologien: Wer macht’s jetzt?

Während Anthropic abgestraft wurde, unterschrieb OpenAI innerhalb von nur 24 Stunden einen Deal mit dem Pentagon. Sam Altman behauptet zwar, dieselben roten Linien zu respektieren, akzeptierte aber den Standard der „rechtmäßigen Nutzung“ (all lawful use). Da es in den USA kaum Gesetze zur Regulierung von KI gibt, befürchtet Anthropic, dass dies ein Freifahrtschein für dystopische Überwachungsszenarien ist. OpenAI hat inzwischen versucht, diesen Eindruck mit einer eigenen Pressemitteilung abzuschwächen:

Darin betont das Unternehmen ausdrücklich, dass seine Modelle nicht für die Inlandsüberwachung von US-Bürger:innen und nicht zur Steuerung autonomer Waffensysteme eingesetzt werden dürfen. Außerdem verweist OpenAI auf zusätzliche Schutzmechanismen wie eine reine Cloud-Bereitstellung, einen eigenen „Safety Stack“ und menschliche Kontrolle im Einsatz.

Crunchy: Altman und Amodei waren bei OpenAI einst Kollegen. Hinter den Kulissen brennt die Hütte. In einem internen Memo bezeichnete Amodei den OpenAI-Deal als „vielleicht 20 Prozent real und 80 Prozent Sicherheits-Theater“. Er warf Altman „Gaslighting“ vor und verwies auf eine 25-Millionen-Dollar-Spende von OpenAI-Mitbegründer Greg Brockman an Trump, während Anthropic sich weigerte, „Lobhudeleien im Diktatoren-Stil“ abzugeben. 

Brisant ist also: OpenAI widerspricht dem Vorwurf nicht grundsätzlich durch den Deal selbst, sondern versucht nun im Nachhinein, ihn über zusätzliche Vertrags- und Sicherheitsformeln moralisch einzudämmen. Doch auch bei OpenAI rührt sich das schlechte Gewissen. Caitlin Kalinowski, Head of Robotics OpenAI, hat gekündigt, weil sie ihren Prinzipien treu bleiben möchte. 

Und was hat Katy Perry damit zu tun?

Dass dieser Konflikt die Nische der Tech-Experten verlassen hat, zeigt eine prominente Unterstützerin: Katy Perry. Die Popsängerin postete auf X einen Screenshot ihres neuen „Claude Pro“-Abos, versehen mit einem kleinen roten Herz. Es könnte ein Zeichen dafür sein, dass User:innen bewusst zu dem Unternehmen wechseln, das für seine Werte einen hohen Preis zahlt.

Die große Frage: Wie können wir KI nutzen, ohne die Moral mit Füßen zu treten? 

Mit diesen 6 Schritten findest du heraus, ob die KI, die du nutzt, mit deinen Werten konform geht.

  1. Check die „Roten Linien“: Schau in die Nutzungsbedingungen oder Blogposts. Werden explizit ethische Grenzen (wie der Ausschluss von Waffenentwicklung oder Überwachung) genannt, oder wird nur vage auf „geltendes Recht“ verwiesen?

  2. Follow the Money: Wer/wen finanziert das Unternehmen? Große politische Spenden oder Investoren aus autoritären Kontexten können Aufschluss darüber geben, wem die Führungsebene am Ende verpflichtet ist.

  3. Achte auf die Kommunikation der Gründer: Was lesen und sagen die Macher? Wenn ein CEO wie Amodei über die moralische Last der Atombombe spricht, ist das ein anderes Signal als ein rein wachstumsorientiertes „Savvy Politicking“.

  4. Hinterfrage „Safety Theater“: Gibt es bereits Verstöße? Werden Sicherheitsmaßnahmen (wie der „Safety Stack“) technisch erklärt oder wirken sie eher wie eine PR-Beruhigungspille für Mitarbeitende und Öffentlichkeit?

  5. Beobachte die Allianzen: Mit wem geht die Firma Partnerschaften ein? Verträge mit Militärs unter unklaren Bedingungen sagen oft mehr über die Firmenmoral aus als jedes Leitbild auf der Webseite.

  6. Passen Verhalten und Werte zusammen? Nicht entscheidend ist, was ein Unternehmen auf seiner Website verspricht, sondern ob Produkt, Partnerschaften und Krisenreaktionen dazu passen. Werden rote Linien auch dann verteidigt, wenn Umsatz, politische Nähe oder Marktanteile auf dem Spiel stehen?

Wir haben die Wahl, welche Zukunft wir mit unseren Klicks und Abos finanzieren. Lasst uns diejenige wählen, die unsere Werte nicht als „Risiko“ betrachtet.

Work smart, not hard.
Deine Laura

PS: Du hast in dem Text gemerkt, dass es wieder Updates gibt, von denen auch ich noch nichts weiß? Schreib mir eine E-Mail. Und: Teile diesen Newsletter mit anderen Smart Chiefs. Noch immer made by humans ❤️

🚀 Smart Links

🤖 Wer profitiert wirklich vom „KI-Staat“? Während Elon Musk und Donald Trump die Verwaltung radikal wegrationalisieren, verkaufen Tech-CEOs künstliche Intelligenz als Retter der Menschheit. Doch hinter der glänzenden Fassade verbirgt sich ein System aus Ausbeutung und gefährlichen politischen Allianzen. Rainer Mühlhoff deckt auf, warum uns die Debatte über „Weltuntergang oder Paradies“ blind für die realen, faschistischen Tendenzen der Gegenwart macht – und wie wir uns wehren können.

📘 Was Nutzer bereits als „Game Changer“ feiern, ist der Schritt hin zu autonomen kreativen Agenten: Luma Labs AI. Das Tools generiert nicht mehr nur isolierte Inhalte, sondern begleitet kompletten Produktionen vom Briefing bis zum fertigen Clip. Durch das Prinzip „Direction & Iteration“ können Creator heute deutlich schneller, iterativer und ergebnisorientierter arbeiten. Hier sind Tutorials, wie es geht.

 🧠 Nochmal Video: Der weltweite Rollout von Kling 3.0 markiert einen Wendepunkt für die generative Videoproduktion. Mit nativen 1080p-Auflösungen und einer Clip-Dauer von bis zu 30 Sekunden führt das Modell aktuell das renommierte „Artificial Analysis“-Leaderboard an – noch vor Giganten wie Runway oder Google Veo.

🎬  Nach dem massiven GitHub-Erfolg von OpenClaw liefert das Team von Every nun den definitiven Leitfaden für Einsteiger. Der Guide führt Nutzer in drei Stufen von einfachen Check-ins über die Kalender-Integration bis hin zu komplexen Workflows und autonomen Telefonaten. (Meine Einschätzung zu OpenClaw liest du hier.)

Vibe Check: Wie hat dir der heutige Newsletter gefallen?

Login oder Abonnieren um an umfragen teilzunehmen.

Wurde diese E-Mail an dich weitergeleitet? Sign up here.

Hast du eine Idee oder Frage an mich? [email protected].