Direkt zum Inhalt wechseln
Connect Künstliche Intelligenz
08. Apr. 2026 | Prof. Dr. Dr. Roman Egger

KI, Krieg und Gewissen: Warum wegen dem Streit zwischen Anthropic und dem Pentagon viele Menschen OpenAI kündigen

Von der Frontlinie der Technologie-Ethik bis in die Büros der Tourismusbranche markiert der aktuelle Konflikt zwischen dem KI-Pionier Anthropic und dem US-Verteidigungsministerium einen Wendepunkt. Es geht nicht mehr nur um Rechenleistung, sondern um die Frage, ob künstliche Intelligenz eine moralische Instanz braucht.

Der Konflikt zwischen Anthropic und dem US-Verteidigungsapparat ist weit mehr als ein simpler Streit über Vertragsklauseln. Er rührt an die fundamentale Frage unserer Zeit, wer letztlich darüber entscheidet, wie künstliche Intelligenz eingesetzt wird. Als das Pentagon forderte, KI-Modelle ohne Einschränkungen für alle rechtlich zulässigen militärischen Zwecke nutzen zu dürfen, zog Anthropic eine klare Grenze. Das Unternehmen weigerte sich, seine Prinzipien der sogenannten „AI Safety“ für Rüstungsaufträge aufzuweichen, und zog sich konsequent zurück. Besonders kritisch bewertete das Unternehmen dabei die potenzielle Entwicklung von KI-gestützten autonomen Waffen, die ohne menschliches Eingreifen Entscheidungen über Leben und Tod treffen könnten. Ein weiterer Streitpunkt war der Einsatz von Algorithmen zur Überwachung von Bürgerinnen und Bürgern, da derartige Systeme zur massenhaften zivilen Kontrolle missbraucht werden könnten. Den freien Platz füllte OpenAI prompt aus und schloss einen Deal für den Einsatz in klassifizierten Umgebungen ab. Für Branchenbeobachter markiert dieser Moment eine rote Linie, die die KI-Welt nachhaltig in zwei Lager spaltet und eine Debatte über die Verantwortung der Entwickler neu entfacht.

Hinter diesem Bruch stehen zwei grundverschiedene Philosophien, die nun den gesamten Markt beeinflussen. Anthropic positioniert sich als restriktiver Hüter und vorsichtiger Anbieter mit engen ethischen Leitplanken. Ihre Modelle sollen als produktive Partner dienen und explizit nicht zur Schaffung autonomer Waffensysteme oder zur staatlichen Überwachung fungieren. Dem gegenüber steht OpenAI als pragmatischer Akteur, der sich deutlich offener gegenüber militärischen Anforderungen zeigt, solange technische Schutzmaßnahmen greifen. Hier steht der Nutzwert und der schnelle Zugang zu Innovationen im Vordergrund, auch wenn dies eine größere Nähe zu staatlichen Sicherheitsapparaten bedeutet. Dieser Gegensatz zwingt nun auch private Unternehmen dazu, Farbe zu bekennen, ob sie einen Partner wählen, der klare moralische Grenzen zieht, oder einen, der maximale Flexibilität verspricht.

Interessanterweise führt diese ethische Debatte zu einem handfesten Markttrend, der weit über die Rüstungsindustrie hinausgeht. Immer mehr Firmen wechseln von ChatGPT zu Modellen wie Claude von Anthropic oder Gemini von Google. Der Grund dafür ist sowohl in der ethischen Ausrichtung als auch in der massiv gestiegenen Leistungsfähigkeit der Claude-Modelle zu finden, die gezielt auf die Bedürfnisse der Business-Welt zugeschnitten sind. Claude wird zunehmend nicht mehr nur als reines Chat-Interface wahrgenommen, sondern als hochspezialisierte Plattform für digitale Agenten, die direkt mit komplexen Daten arbeiten. Während ChatGPT oft als kreativer Gesprächspartner fungiert, glänzt Claude bei komplexen Arbeitsprozessen, die von der tiefgehenden Recherche bis zur Erstellung fertiger und strukturierter Projektergebnisse reichen. Teams berichten, dass das System näher an realen Arbeitsabläufen operiert, etwa bei Marktanalysen, der Erstellung von Entscheidungsgrundlagen für die Chefetage oder bei der Aufbereitung von Inhalten für verschiedene Kommunikationskanäle.

Besonders deutlich wird dieser Effizienzsprung in Branchen wie dem Tourismus, wo täglich enorme Mengen an Informationen verarbeitet werden müssen. Tourismusverbände nutzen die neue Generation von KI-Werkzeugen bereits für automatisierte Trendanalysen, die Auswertung von Gästefeedback zur Qualitätssteigerung oder die Planung ganzer Jahreskampagnen. Mit Tools wie „Claude Code“ lassen sich mittlerweile automatisierte Workflows erstellen, die einen kompletten Marketingplan inklusive Newslettern und Pressemappen generieren, während interne Wissenssysteme den Mitarbeitern sofortigen Zugriff auf alle relevanten Destinations-Daten ermöglichen. Die KI wandelt sich hier vom Spielzeug zum strategischen Rückgrat der Organisation, das ohne die Risiken einer Überwachungstechnologie auskommt.

Wer den Wechsel von OpenAI zu Anthropic oder Gemini vollziehen möchte, sollte dies jedoch als strategisches Projekt und nicht als bloßen Softwaretausch begreifen. Ein direkter Import von Chatverläufen oder individuellen „GPTs“ ist technisch derzeit nicht vorgesehen, was den Umzug zu einer Chance für eine grundlegende Optimierung macht. Der erste Schritt besteht darin, bestehende Daten über die Export-Funktion zu sichern und als Wissensbasis aufzubereiten. Viel wichtiger ist jedoch das Umdenken bei den Anweisungen. Claude reagiert besonders gut auf sehr lange, präzise und klar strukturierte Prompts, die auf dem Prinzip der „Constitutional AI“ basieren. Um die Souveränität über die eigenen Informationen zu behalten, empfiehlt es sich zudem, eine anbieterneutrale Wissensbasis durch Vektordatenbanken oder sogenannte RAG-Systeme aufzubauen. Dieser Ansatz gewinnt besonders an Bedeutung, wenn es um hochsensible Unternehmensdaten geht, die nach europäischen Datenschutzstandards geschützt werden müssen. Da die Verarbeitung bei den großen Sprachmodellen oft auf US-Servern stattfindet, setzen immer mehr Firmen auf Corporate LLMs oder lokale Instanzen. Lösungen von europäischen Anbietern oder die Nutzung von Open-Source-Modellen wie Llama und Mistral auf eigenen Servern bieten hier eine sichere Alternative, um die Hoheit über geschäftskritische Geheimnisse zu wahren. Für professionelle Nutzer mündet dieser Wechsel meist in einer API-Integration, bei der nicht mehr nur gechatet wird, sondern die KI Aufgaben in einem automatisierten Prozess selbstständig abarbeitet.

Letztlich verdeutlicht der Streit um das Pentagon, dass künstliche Intelligenz keine reine Technologiefrage mehr ist. Es geht um Verantwortung gegenüber der Gesellschaft, den Schutz vor autonomer Gewalt und den Erhalt der Privatsphäre. Der Markt verschiebt sich rasant vom besten Chatbot hin zum besten digitalen Mitarbeiter. Unternehmen stehen heute vor der Wahl, welcher Partner am besten zu ihrer eigenen Haltung und ihren spezifischen Arbeitsprozessen passt. In diesem neuen Wettbewerb positioniert sich Anthropic derzeit besonders stark als die verlässliche und prozessorientierte Alternative, die Sicherheit und Ethik als Kern ihres Geschäftsmodells begreift.

Autor: Prof. Dr. Dr. Roman Egger, roman.egger@smartvisions.at