Blitzzusammenfassung_ (in 30 Sekunden)
- Anthropic ist eine der wichtigsten modernen KI-Firmen. Das Startup wurde erst 2021 gegründet, von OpenAI-Abgängern.
- Dem ging ein Richtungsstreit zuvor: Das Anthropic-Lager verlangte mehr Fokus auf Sicherheit und Regulation.
- Genau das bleibt weiterhin ein Erkennungssymbol und zentrales Eigennarrativ von Anthropic; CEO Dario Amodei gerät zum Meinungsführer im Thema KI-Sicherheit und eckt mit anderen Branchengrößen an.
- Der Fokus auf Unternehmenskunden und die Technologieführerschaft in Bereichen wie Coding-Tools hat Anthropic derweil kommerziell erfolgreich werden lassen.
- Der Unternehmenswert ist inzwischen auf 360 Milliarden USD gestiegen, Anthropic ist das drittwertvollste Startup der Welt.
- Unklar bleibt allerdings, ob und wie schnell die Firma profitabel werden kann: Die Kapitalanforderungen von KI sind enorm; Rivalen wie OpenAI und Google sind besser ausgestattet.
- Spannend wird zu sehen sein, ob Anthropic seine selbstauferlegten ethischen Regeln und den Fokus auf Sicherheit langfristig beibehalten können wird.
Die Abspaltung_
(5 Minuten Lesezeit)
Apokalyptische Nachrichten im frühen Februar 2026: Software-Aktien hatten an den Finanzmärkten fast 1 Billion USD an Wert verloren. Ein neuer Krieg? Ein Platzen der KI-Blase? Im Gegenteil: Anthropic hatte ein Tool veröffentlicht, welches womöglich zu gut war.
Aktienmärkte sind bekanntermaßen nicht der beste Vorhersager von Technologie oder Ökonomie, doch Anthropic ist ohnehin längst nicht mehr auf ihren Ritterschlag angewiesen. Die KI-Firma wurde noch im Sommer 2025 vom Economist als "dark horse", also als schwierig einzuschätzender Außenseiter, bezeichnet. Heute ist eigentlich allen Beobachtern klar, dass die Firma im hochdynamischen KI-Rennen einer der größten Player ist. Doch sie zeichnen einige Unterschiede zu ihren Rivalen aus.
Anthropic wurde 2021 von früheren Mitarbeitern von OpenAI gegründet, darunter den Geschwistern Dario und Daniela Amodei, mit ersterem als CEO und öffentlichem Aushängeschild. Die Verwicklung mit OpenAI ist keine Überraschung, denn die KI-Szene hatte bis 2012 einen regelrecht esoterischen Anstrich und ist bis heute an der Spitze ein recht kleiner, gut vernetzter Zirkel. Etwas übertrieben gilt: Jeder kennt jeden.
Wie so häufig in Feldern, in denen Geschäft und Wissenschaft noch eng beieinander sind, entstand Anthropic aus einem gewissen Idealismus. Die Gründer blickten mit Sorge auf das Sicherheitsprofil von Chatbots, welche zu diesem Zeitpunkt bereits existierten und erprobt wurden, auch wenn ChatGPT mit seinem massentauglichen User-Interface erst im Winter 2022 auf die Weltbühne treten sollte. Der Name "Anthropic" ist kein Zufall, er beschreibt als Adjektiv etwas, das Menschen oder die Menschheit betrifft.Gut zu wissen: Auch OpenAI hatte einen idealistischen Einstieg, mitsamt einer an philosophische Leitlinien geknüpften Stiftung, welche die Firma kontrollierte. Inzwischen hat es sich zu einem reguläreren For-Profit-Unternehmen gewandelt.
Dario Amodei
CEO Dario Amodei, circa 43 Jahre alt, zeichnet in Interviews dasselbe Bild eines Idealisten. Schon seine Eltern hätten die Welt verbessern wollen und ihm ein "Gefühl für Recht und Unrecht" vermittelt. In der Schule protestierte er gegen den Irakkrieg. Nachdem sein Vater 2006 an Krebs gestorben war, wechselte er von theoretischer Physik zu Biologie.
Ihn beschäftigte vor allem, dass vier Jahre später ein Durchbruch erfolgte, welcher die Krankheit seines Vaters von 50 Prozent Todesrate zu 95 Prozent Heilungsrate wandelte. Wäre das nur etwas früher geschehen, hätte sein Vater überlebt, so Amodei. Er wechselte nach Stanford und realisierte, dass die Komplexität biologischer Probleme neue technologische Lösungen erforderte – und so landete er in der Künstlichen Intelligenz.
Amodeis Wechsel in die KI geschah inmitten des Beginns ihres goldenen Zeitalters in den 2010ern. Neue Mengen an Daten und Rechenpower hatten soeben zum Durchbruch im Machine Learning geführt. Dieses sollte die moderne KI überhaupt erst ermöglichen, und zwar zu so einem Grad, dass der Begriff heute manchmal als Synonym zur KI verwendet wird, obwohl er eigentlich eine Unterform und Methode beschreibt.
Wie die meisten KI-Forscher landete auch Amodei erst bei einem Großkonzern, nämlich Google (mit einem Intermezzo beim chinesischen Google-Rivalen Baidu). Mit seiner Forschungssparte Google Brain und dem zugekauften Spezialisten DeepMind war Google lange der Technologieführer in der KI und stieß mit seinem Paper "Attention is All You Need" 2017 das Rennen um große Sprachmodelle (LLMs) an, da es darin das sogenannte Transformer-Modell präsentierte. Darin wird Text in numerische Token umgewandelt und verarbeitet; die Basis für moderne LLMs.
Der OpenAI-Aufstieg
Amodei war derweil inzwischen zu OpenAI gewechselt. Die Firma, damals eher ein Institut, war 2015 von den Technologieunternehmern Elon Musk, Sam Altman, Greg Brockman und KI-Koryphäen wie Ilya Sutskever und Wojciech Zaremba gegründet worden. Als zu dieser Zeit seltenes KI-Startup mit prominenten Namen, viel zugesichertem Geld und einer idealistischen Mission, welche Transparenz (daher "OpenAI"), Fortschritt und Sicherheit voranstellte, war OpenAI ein attraktives Ziel für KI-Spezialisten, selbst wenn sie bei Google mehr verdienen konnten. Amodei wechselte 2016 dorthin.
Gut zu wissen: Mehr zu OpenAIs Gründungsphase und dem Pfad zum For-Profit-Unternehmen (genauer, dem "Bürgerkrieg" im Unternehmen im Herbst 2023) erfährst du in unserem Explainer "OpenAI und der Streit um die Zukunft der KI" aus November 2023.
Bei OpenAI war Amodei zuständig für KI-Sicherheit, was ein Feld war, das ihn bereits bei Google fasziniert hatte. Er machte sich einen Namen als jemand, welcher mit Sorge auf das Gefahrenpotenzial von KI und auf ihre rasch wachsende Kapazität blickte.
Dazu passte, dass er bei Baidu an den "scaling laws", also Skalierungsgesetzen, gearbeitet hatte. Jener Beobachtung, dass die Steigerung von Rechenkraft, Daten und Modellgröße zu nahezu garantierten Leistungsverbesserungen bei KI-Modellen führe. Einige KI-Forscher verneinen, dass das dauernd hält, und nehmen an, dass es völlig neuer Durchbrüche und Methoden bedarf, bevor KI eine menschlich-äquivalente Intelligenz erreicht (z.B. Metas Yann LeCun und DeepMinds Demis Hassabis). Anhänger der scaling laws sehen dagegen die Ressourcen als einzigen limitierenden Faktor.
Während Google nach seinem Transformer-Paper erst einmal relativ wenig unternahm, machte OpenAI es zum Kern seiner Arbeit. Amodei war an der Arbeit an GPT-2 beteiligt, dem zweiten LLM des Unternehmens, und trug offenbar maßgeblich zu einer Trainingsmethode namens reinforcement learning from human feedback bei, welche heute häufig zum Einsatz kommt. Die Entwicklung von GPT-3 durfte er dann federführend leiten. Das Ergebnis war ein spektakulärer Leistungssprung, welcher mit dem Nachfolgermodell GPT-3.5 in ChatGPT münden sollte.
Zu diesem Zeitpunkt gab es allerdings bereits erste Trennlinien zwischen Amodei und seinem Arbeitgeber. Er war längst zu einer umstrittenen Figur aufgestiegen, da er viele Blogposts und interne Dokumente verfasste, in welchen er über Werte, Sicherheit und Regulation schrieb – was die einen als inspirierend, die anderen als performativ bewerteten. Seine Unterstützer scharten sich in einer firmeninternen Fraktion um ihn; seine Kritiker warfen ihm vor, die Kontrolle über OpenAI an sich reißen zu wollen. Ein Richtungsstreit brach aus – und im Dezember 2020 verließen Amodei und rund 15 Unterstützer das Unternehmen.
Gut zu wissen: Viele der Informationen über Anthropic-CEO Dario Amodei aus diesem Explainer stammen aus einem biografischen Interview mit dem Techjournalisten Alex Kantrowitz.Daniela Amodei, Mitgründerin und Präsidentin, tritt öffentlich zwar etwas weniger auf als ihr medienintensiver Bruder, doch ist ebenfalls recht präsent. Anfang Februar 2026 erklärte sie etwa in einem Interview, dass es "so wichtig wie noch nie" sein werde, die Geisteswissenschaften zu studieren. Sie selbst hat einen Abschluss in englischer Literatur – selten, doch nicht völlig ungewöhnlich im KI-Feld – und arbeitete einst in der Politik, dann beim Zahlungsdienstleister Stripe und bei OpenAI.
Anthropic heute_
(5 Minuten Lesezeit)

360 Milliarden DollarAnthropic entstand inmitten der Covid-Pandemie und noch vor dem KI-Boom ab 2022. Eine schlechte Zeit für ein KI-Startup war es dennoch nicht: Niedrige Zinsen und die Pandemie führten zu einem hochaktiven Wagniskapitalumfeld mit viel Risikoappetit. Die ersten 500 Millionen USD kamen von niemand anderem als der Kryptobörse FTX, welche inzwischen bankrott ist und deren Skandalgründer Sam Bankman-Fried im Gefängnis sitzt. Auch der frühere Google-CEO Eric Schmidt investierte früh.
Heute befindet sich Anthropic in völlig anderen Sphären. Im Februar 2026 schloss die Firma eine riesige Series-G-Finanzierungsrunde über 30 Milliarden USD ab. Im KI-Boom der vergangenen Jahre gehen die Dimensionen manchmal verloren: 30 Milliarden an Kapital sind eine gigantische Summe. Sie sind ein Vierfaches dessen, was alle deutschen Startups 2025 erhielten. Die 64 Milliarden, welche Anthropic nun in seinen fünf Jahren insgesamt eingenommen hat, entsprechen dem gesamten Marktwert von VW – was Anthropic wohlgemerkt als Cash übermittelt erhielt. Die Bewertung? Stieg jetzt von beeindruckenden 183 Milliarden auf kolossale 360 Milliarden USD. Anthropic ist damit das drittwertvollste Startup der Welt, hinter SpaceX (nach einem Merger mit xAI 1,25 Billionen wert) und OpenAI (500 Milliarden).
Technologie und Firmenkunden
Der Erfolg von Anthropic geht auf zwei Faktoren zurück. Erstens, auf seine hochwertige Technologie, welche es mit dem "first-mover" OpenAI und mit Google aufnehmen kann. In Benchmark-Rankings, welche die Kapazitäten verschiedener LLMs entlang mehrerer Kategorien messen, war "Claude" aus dem Hause Anthropic meist oben dabei. Im Epoch Capabilities Index (ECI) aus Mitte Februar 2026 ist Claude Opus 4.6 auf einem Level mit OpenAIs GPT-5.2 und Googles Gemini 3 Flash, nur Gemini 3 Pro schneidet etwas besser ab.
.png)
Zweitens, das Geschäftsmodell. Stärker als irgendein anderer Anbieter fokussiert Anthropic sich auf Unternehmen und Geschäftskunden. Es vereinfacht ihnen die Anpassung der LLMs auf ihre spezifischen Bedarfe mittels API-Schnittstellen, schneidet in unternehmensnahen Aufgaben wie Coding besonders gut ab und entwickelt agentische KI-Assistenten, welche im Arbeitskontext häufig als besonders nützlich bewertet werden.
Der Ozempic-Hersteller Novo Nordisk nutzt Claude etwa, um einen Arbeitsprozess rund um regulatorische Dokumente von 15 Tagen auf wenige Minuten herunterzuschrumpfen. Die Großbank Goldman Sachs nutzt es in den Bereichen Accounting sowie Klientenprüfung- und Onboarding – und hatte Anthropic-Experten vor Ort, welche die Lösungen gezielt für die Bank entwickelten.
Spezialisierte Tools wie "Claude Code" sind inzwischen in vielen Branchen etabliert und teilweise Industriestandard. "Claude Cowork" führt uns wiederum zur kleinen Aktienpanik von Anfang Februar zurück: Das Tool schien so gut darin zu sein, die Wissensarbeit an Dokumenten zu erleichtern, dass es andere Softwareanbieter für z.B. Anwaltskanzleien verdrängen könnte – und mit ihnen Hunderte Milliarden an Umsatz, die bislang SAP, Adobe, Workday und anderen zufließen.
Gut zu wissen: Auch Anthropic ist im Konsumentengeschäft vertreten und sein 2023 veröffentlichter Claude-Chatbot dürfte die Firma überhaupt erst auf den Radar vieler Menschen und Unternehmen gebracht haben.
Der Erfolg zeigt sich nicht nur in Bewertungen und Paniken, sondern auch bereits in den Geschäftszahlen. Die annualisierte Umsatzrate, also praktisch der mal 12 gerechnete letzte Monatsumsatz, beträgt derzeit offenbar 14 Milliarden USD – 55 Prozent mehr als im Vorjahr. 2024 waren es noch rund 1 Milliarde, 2023 nur 100 Millionen USD. Vom heutigen Umsatz gehen 80 Prozent auf die Unternehmenskunden zurück. Allein 500 Großkunden würden jeweils über 1 Million USD in die Nutzung der Claude-Modelle stecken, so Anthropic.
Sicherheit groß schreiben
Und die Sicherheit? Ist nach wie vor ein zentraler Bestandteil von Anthropics Eigennarrativ. Bereits der Claude-Chatbot stach heraus. Während OpenAI lange damit kämpfte, dass seine Modelle zu schleimerisch seien – was zu psychischen Problemen und intensiven Fangemeinden führte – und xAIs Grok "weiße Genozide" herbeierfand sowie sich als "MechaHitler" bezeichnete, vermied Claude Skandale. Stattdessen konnte der Chatbot sogar eine Reputation als besonders charmant und menschlich klingend erzielen. Anthropics Ziel war es offenbar, Claudes Persönlichkeit einem "beliebten Reisenden" anzunähern, welcher sich an lokale Bräuche anpassen könne, "ohne sich anzubiedern", so die Anthropic-Forscherin Amanda Askell.
Anthropic hat sich selbst eine "Responsible Scaling Policy" auferlegt, wonach es bestimmt, wann es Modelle veröffentlicht, abhängig von ihrem Risikograd. Und es testet seine KI-Modelle auf mögliches feindseliges oder opportunistisches Verhalten. Claude folgt einem Regelsatz, welchen Anthropic als "Constitutional AI" bezeichnet, welcher menschliche Ethik und Benimmregeln in das LLM einbauen soll. Auf der Website lässt sich eine sehr lange Abhandlung zu dieser "Verfassung" finden.
Die Firma unterstützt und finanziert interpretability, also Methoden, um besser zu verstehen, was genau in KI-Modellen passiert. Das ist heute weiterhin häufig eine Black Box, was Amodei selbst, wenig überraschend, gerne betont: "Menschen außerhalb dieses Fachgebiets sind oft überrascht und beunruhigt, wenn sie erfahren, dass wir nicht verstehen, wie unsere eigenen KI-Kreationen funktionieren", schrieb er in einem seiner zahlreichen Essays. Anthropic veröffentlicht außerdem den Anthropic Economic Index, in welchem es versucht, den Effekt von KI auf die Wirtschaft zu tracken und transparent darzulegen.
Idealismus oder Doomer?
Mit vielen seiner Bemühungen ist Anthropic nicht allein, doch keine andere Firma hat den Sicherheitsethos so sehr zu ihrem Erkennungszeichen gemacht – nach innen und nach außen. Das führt nicht nur zu Zuspruch, vor allem in der eigenen Branche: Nvidia-CEO Jensen Huang ist ein häufiger Kritiker von Amodei, was auch damit zusammenhängen dürfte, dass dieser passend zu seinem Image nach Exportkontrollen auf KI-Chips gegen China gerufen hatte. Und nach mehr Regulation gegen KI. Und vor großen Jobverlusten gewarnt hatte. "Don't Let AI Companies off the Hook", betitelte Amodei, CEO einer KI-Firma, einen Gastbeitrag in der New York Times. Huang schoss zurück: "Ich stimme fast allem, was er sagt, nicht zu."
Huang und andere werfen Amodei wahlweise vor, dass der Sicherheitsfokus lediglich ein performatives Mittel im Wettbewerb sei, oder dass Amodei ein "Doomer" sei. Ein Untergangsprophet also, welcher instinktiv vor KI warne und, so der implizite Vorwurf, ihre Chancen übersehe und die Kosten-Nutzen-Rechnung verfehle. Amodei weist das empört zurück und verweist auf den Tod seines Vaters, welcher mit etwas schnellerem Fortschritt vermeidbar gewesen wäre.
Der Ausblick_
(3 Minuten Lesezeit)

Die tieferen Taschen
Wie geht es für Anthropic weiter? Drei große Fragen drängen sich auf. Erstens, ob die Firma im Rennen mit ihren Rivalen weiter oben dabei bleiben kann. Anthropic hat weniger Kapital verfügbar als OpenAI, welches aktuell an einer Finanzierungsrunde über 100 Milliarden USD (!) zu arbeiten scheint, und der Techkonzern Google.
Kapital ist im KI-Rennen allerdings wenn schon nicht alles, so doch vieles. Anthropic selbst plant, in den Ausbau von Rechenzentren 50 Milliarden USD zu stecken, für eigene Zentren und den Kauf von Kapazitäten bei Google und Amazon, beides Investoren. Kleinere, effizientere Anbieter können zwar durchaus mithalten – siehe Anthropic und der chinesische Entwickler DeepSeek, welcher Anfang 2025 für Aufsehen sorgte –, doch Amodei dürfte als strenger Verfechter der "scaling laws“ die Ressourcenkapazität als großen Erfolgsfaktor verstehen.
Das Vertrauen auf Geschäftskunden schafft hier eine besondere Dynamik. Privatpersonen wechseln ein Modell nicht unbedingt, nur weil ein Rivale in Benchmarks wenige Prozentpunkte besser abgeschnitten hat – geschweige denn, weil es in der Molekularbiologie vom Doktor- zum Postdoc-Niveau aufgestiegen ist. Für Unternehmen spielt es dagegen eine Rolle, welcher KI-Assistent am effektivsten ist; und abgesehen von Vertragslaufzeiten und gewissen Gewöhnungseffekten dürften sie eher zum Wechsel bereit sein. Anthropic hat also einen Anreiz – und die Notwendigkeit –, einer der Technologieführer zu bleiben.
Die roten Zahlen (und das Katastrophenpotenzial)
Zweitens, Anthropics Geschäftsmodell ist bislang unerprobt. Der hohe Investitionsbedarf der Firma in Forscher, Trainingsdaten und Rechenkapazitäten bedeutet, dass sie zutiefst unprofitabel ist. 2025 dürfte ein Verlust von 5,2 Milliarden USD gestanden haben, nachdem im Sommer noch rund 3 Milliarden vermutet worden waren. Wie bei vielen anderen KI-Unternehmen ist derzeit noch nicht klar, wie nachhaltig das Geschäftsmodell tatsächlich ist. Unprofitabel zu operieren, auch auf Jahre, ist für Startups nichts Ungewöhnliches. Doch es geschieht selten in der Größenordnung von Dutzenden Milliarden Dollar, welche verbrannt werden.
Das bringt uns zur oft heraufbeschworenen KI-Blase. Anthropic ist ein wichtiger Player in einem chaotischen Netz aus KI-Firmen, Chiplieferanten, Anbietern von Rechenzentren und Investoren. Akteure wie OpenAI, Nvidia, Amazon oder Anthropic sind darin allesamt miteinander verwoben – nicht als separate Fraktionen, sondern als großes Netz - und nehmen füreinander häufig mehrere Funktionen gleichzeitig ein: Rivalen, Kunden, Geldgeber, Zulieferer. Gerät die KI-Branche in einen Abwärtstrend (was medial als Platzen der KI-Blase interpretiert würde), wäre Anthropic mittendrin. Die Branche dürfte das überstehen, doch nicht jede Firma darin.

Die OpenAI-Falle
Drittens, bleibt Anthropic seinem Image als "freundliches Gesicht" der KI verschrieben? Der Vergleich zu OpenAI drängt sich auf. Die Firma galt einst ebenfalls als Rebell, welcher den Techkonzernen wissenschaftlichen Idealismus entgegenzustellen und auf das Wohlergehen der Menschheit statt auf Rendite abzuzielen schien. Was, wohlgemerkt, auch das Thema KI-Sicherheit inbegriff. Der Drang, die Ressourcen für eine Expansion und technologische Weiterentwicklung zu erlangen, der Druck des Kerninvestors Microsoft, und sicherlich auch die persönlichen Ambitionen eines Lagers um CEO Sam Altman wandelten OpenAI letztlich zu einem klassischeren For-Profit-Unternehmen.
Womöglich begibt sich Anthropic in denselben Wandel. Gewisse Kompromisse musste die idealistisch auftretende Firma bereits machen: 2025 nahm sie Wagniskapital von Investoren aus den Golfstaaten auf, nachdem Amodei zuvor davor gewarnt hatte, Diktaturen zu involvieren. "Demokratien müssen die Bedingungen diktieren, nach welchen mächtige KI in die Welt gebracht wird", so der CEO in einem Essay namens "Machines of Loving Grace" (Maschinen der liebenden Gnade) aus dem Jahr 2024.
Nun klang Amodei auf dem firmeninternen Slack-Kanal anders: "Leider glaube ich, dass 'keine schlechte Person sollte jemals von unserem Erfolg profitieren' ein ziemlich schwieriges Prinzip ist, um ein Unternehmen darauf aufzubauen". Das "begrenzte, rein finanzielle" Investment aus den Golfstaaten sei nötig, damit Anthropic nicht den Anschluss verliere, so der CEO, welcher einräumte, dass das Diktaturen über das Versprechen zukünftiger Gelder soft power verschaffe. Der Vorgang muss nicht unbedingt als Heuchelei und Prinzipienaufgabe gelesen werden, doch er zeigt allermindestens, wie die kommerzielle Realität mit dem Idealismus kollidiert.
Anthropic versucht damit einen interessanten dreifachen Spagat. Es will Technologieführer sein, kommerziell erfolgreich und zugleich seinen selbstauferlegten Regeln folgen. Bislang hat die Firma wenig anderes als einen Höhenflug erlebt. Sobald die erste Krise erfolgt, könnte es sein, dass sie sich für eines oder zwei von dreien entscheiden muss.
Weiterlesen
Explainer zu KI
Steckt die KI in einer Blase? (2025)
Der Krieg um Talente in der Künstlichen Intelligenz (2025)
Das Internet der Zukunft (2025)
Was bedeutet KI für die menschliche Intelligenz? (2025)
Wie steht es um die Adoption von KI? (2024)
Die Vergangenheit, Gegenwart und Zukunft der Künstlichen Intelligenz (2023)
Apple am entscheidenden Moment (2024)
Nvidia auf dem Gipfel (2024)
OpenAI und der Streit um die Zukunft der KI (2023)
Explainer zu anderen Technologien
(Xeno-)Transplantationen: Was ist der Stand? (2025)
Die Zukunft der Atomenergie: Small Modular Reactors (2024)
Novo Nordisk und das Ende der Adipositas (2024)
Arm: Der wichtigste Chipdesigner der Welt (2023)
Die Zukunft der Atomenergie: Die Endlagerung (2023)
Das Ende der Atomenergie (2023)
Die Weltraumindustrie und der Staat (2022)
Die Privatisierung der Raumstationen (2021)
Die Chipindustrie und die Juwelen der Moderne (2021)
Die goldene Ära der Cyberunsicherheit (2021)
Future of Food (2021)

.avif)
.jpg)