{"id":322085,"date":"2026-03-02T15:03:17","date_gmt":"2026-03-02T14:03:17","guid":{"rendered":"https:\/\/borncity.com\/blog\/?p=322085"},"modified":"2026-03-02T22:17:39","modified_gmt":"2026-03-02T21:17:39","slug":"nach-anthropic-rauswurf-beim-us-verteidigungsministerium-springt-openai-ein","status":"publish","type":"post","link":"https:\/\/borncity.com\/blog\/2026\/03\/02\/nach-anthropic-rauswurf-beim-us-verteidigungsministerium-springt-openai-ein\/","title":{"rendered":"Nach Anthropic-Rauswurf beim US-Verteidigungsministerium springt OpenAI ein"},"content":{"rendered":"<p><img decoding=\"async\" style=\"float: left; margin: 0px 10px 0px 0px; display: inline;\" title=\"Stop - Pixabay\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2021\/06\/Stop01.jpg\" alt=\"Stop - Pixabay\" align=\"left\" \/>Was f\u00fcr ein Wochenabschluss bzw. was f\u00fcr ein Wochenende. Letzten Freitag lief ein Ultimatum des US-Milit\u00e4rs (Pentagon) f\u00fcr den AI-Anbieter Anthropic aus. Der sollte seine AI-L\u00f6sung f\u00fcr Waffen und Massen\u00fcberwachung freigeben. Anthropic hat sich geweigert und wird rausgeworfen. Sam Altman ist mit OpenAI in diese L\u00fccke rein gegr\u00e4tscht, sieht sich jetzt aber Nutzerschwund gegen\u00fcber. Derweil setzt das US-Milit\u00e4r bei den Luftschl\u00e4gen gegen Iran Anthropics AI-L\u00f6sungen ein.<\/p>\n<p><!--more--><\/p>\n<h2>R\u00fcckblick: Anthropic-Rauswurf und offener Brief<\/h2>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/vg04.met.vgwort.de\/na\/386e2df8c54547f4a0de5374fb321f9f\" alt=\"\" width=\"1\" height=\"1\" \/>KI-Anbieter Anthropic hatte einen 200 Millionen US-Dollar schweren Vertrag mit dem\u00a0 Pentagon (US-Verteidigungsministerium, inzwischen laut Eigenaussage \"Kriegsministerium\") zum Einsatz der KI-L\u00f6sung Claude beim US-Milit\u00e4r abgeschlossen.<\/p>\n<p>Dann fordert Verteidigungsminister Pete Hegseth vom Unternehmen die Aufhebung der Sicherheitsvorkehrungen f\u00fcr sein KI-Modell im Hinblick auf die milit\u00e4rische Nutzung in Waffen sowie zur Massen\u00fcberwachung. Gerade letzteres ist in den USA wegen der Eins\u00e4tze der Beh\u00f6rde ICE gegen Einwanderer stark umstritten (liefern doch Unternehmen wie Facebook, Palantir etc. Daten und Software an diese Beh\u00f6rde). Und Anthropic sieht seine KI-L\u00f6sung nicht f\u00fcr sicher genug, um diese im Waffenbereich einzusetzen.<\/p>\n<p>Es gab ein Ultimatum des Pentagon, das von Anthropic die Freigabe der KI-L\u00f6sung f\u00fcr die genannten Einsatzzwecke verlangte; andernfalls drohe der Rauswurf und die Aufnahme in eine \"Black-List\". Anthropic blieb standhaft und verweigerte die geforderte Freigabe, worauf US-Pr\u00e4sident Trump den Rauswurf von Anthropic KI-L\u00f6sungen in allen US-Beh\u00f6rden binnen 6 Monaten anordnete. Ich hatte im Blog-Beitrag\u00a0<a href=\"https:\/\/borncity.com\/blog\/2026\/02\/28\/anthropic-ai-bleibt-gegenueber-dem-pentagon-standhaft-bann-durch-us-praesident-trump\/\">Anthropic AI bleibt gegen\u00fcber dem Pentagon standhaft, Bann durch US-Pr\u00e4sident Trump<\/a> berichtet. The Atlatic skizziert in <a href=\"https:\/\/www.theatlantic.com\/technology\/2026\/03\/inside-anthropics-killer-robot-dispute-with-the-pentagon\/686200\/\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> den Bruch zwischen Anthropic und Verteidigungsminister.<\/p>\n<h2>Offener Brief der Google- und OpenAI-Mitarbeiter<\/h2>\n<p>Mitarbeiter der Firmen Google und OpenAI ver\u00f6ffentlichten einen offenen Brief mit dem Titel \"We Will Not Be Divided\", in denen die jeweilige Unternehmensleitung aufgefordert wurde, nicht beim Pentagon in die Breche zu springen und die eigenen KI-L\u00f6sungen als Ersatz anzudienen. Von Google habe ich nichts geh\u00f6rt, von OpenAI sah es zuerst so aus, als ob deren Chef, Sam Altman, diese Position einnehme, wie nachfolgender Tweet suggeriert.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-322013\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-135.png\" sizes=\"auto, (max-width: 540px) 100vw, 540px\" srcset=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-135.png 540w, https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/02\/image-135-252x300.png 252w\" alt=\"Sam Altman on Anthropic\" width=\"540\" height=\"643\" data-cmp-info=\"10\" \/><\/p>\n<h2>OpenAI springt ein und schlie\u00dft Vertrag mit Pentagon<\/h2>\n<p>Die Verlautbarung von Sam Altman hatte aber nur eine kurze Halbwertszeit. Er teilt zwar die ge\u00e4u\u00dferten Positionen von Anthropic in Bezug auf KI-Sicherheit. Es hinderte aber OpenAI nicht daran, noch am letzten Freitag, den 27. Februar 2026, einen Vertrag mit dem Pentagon zum Einsatz von deren KI-L\u00f6sungen abzuschlie\u00dfen.<\/p>\n<p><a href=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/03\/image-7.png\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-322086\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/03\/image-7.png\" alt=\"OpenAI Statement zum Pentagon-Vertrag\" width=\"529\" height=\"783\" srcset=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/03\/image-7.png 529w, https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/03\/image-7-203x300.png 203w\" sizes=\"auto, (max-width: 529px) 100vw, 529px\" \/><\/a><\/p>\n<p>Altman <a href=\"https:\/\/xcancel.com\/sama\/status\/2027578580159631610\" target=\"_blank\" rel=\"noopener\">schrieb auf X<\/a>, dass man die eigenen Positionen von OpenAI mit der Vereinbarung nicht aufgegeben habe, es g\u00e4be \"Sicherheitsmechanismen\", um den Einsatz in letalen Waffen und zur Massen\u00fcberwachung von US-Amerikanern zu verhindern. The Verge hat\u00a0 den Sachverhalt zum 28. Februar 2026 in <a href=\"https:\/\/techcrunch.com\/2026\/02\/28\/openais-sam-altman-announces-pentagon-deal-with-technical-safeguards\/\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a> ebenfalls beschrieben. Von OpenAI gibt es zudem <a href=\"https:\/\/openai.com\/index\/our-agreement-with-the-department-of-war\/\" target=\"_blank\" rel=\"noopener\">diese Stellungnahmen<\/a> zum Vertrag mit dem Verteidigungsministerium. Hier ein kurzer Auszug:<\/p>\n<blockquote><p>Wir sind der Meinung, dass unsere Vereinbarung mehr Sicherheitsvorkehrungen enth\u00e4lt als alle bisherigen Vereinbarungen f\u00fcr den Einsatz geheimer KI, einschlie\u00dflich der von Anthropic. Hier sind die Gr\u00fcnde daf\u00fcr.<\/p>\n<p>Wir haben drei wichtige rote Linien, die unsere Arbeit mit dem DoW leiten und die im Allgemeinen auch von mehreren anderen Spitzenforschungslabors geteilt werden:<\/p>\n<ul>\n<li>Keine Nutzung der OpenAI-Technologie f\u00fcr die Massen\u00fcberwachung im Inland.<\/li>\n<li>Keine Nutzung der OpenAI-Technologie zur Steuerung autonomer Waffensysteme.<\/li>\n<li>Keine Nutzung der OpenAI-Technologie f\u00fcr automatisierte Entscheidungen mit hohem Risiko (z. B. Systeme wie \u201eSocial Credit\").<\/li>\n<\/ul>\n<\/blockquote>\n<p>Die obigen Ausf\u00fchrungen von Altman bzw. OpenAI hielten aber nicht lange. Bald wurde darauf hingewiesen (siehe die Anmerkung zu obigem Tweet durch Nutzer sowie auch <a href=\"https:\/\/xcancel.com\/justanotherlaw\/status\/2027855993921802484\" target=\"_blank\" rel=\"noopener\">folgenden Tweet<\/a>), dass das \"Department of War\" (Pentagon) das doch anders sieht.<\/p>\n<p><a href=\"https:\/\/xcancel.com\/justanotherlaw\/status\/2027855993921802484\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone\" title=\"Einstufung des OpenAI-Agreements mit dem Pentagon\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/03\/image-8.png\" alt=\"Einstufung des OpenAI-Agreements mit dem Pentagon\" width=\"521\" height=\"800\" \/><\/a><\/p>\n<p>Die AI-Modelle d\u00fcrften f\u00fcr alle \"gesetzlichen Zwecke\" verwendet werden &#8211; und was gesetzliche Zwecke sind, legt die US-Regierung fest. Auf den Punkt gebracht: OpenAI erkl\u00e4rte sich in der Vereinbarung bereit, US-Gesetze zu befolgen, die in der Vergangenheit eine Massen\u00fcberwachung von US-Amerikanern erm\u00f6glicht haben. Und das Verteidigungsministerium r\u00fcckte nicht von seinen Forderungen nach einer Massenanalyse von Daten von US-B\u00fcrgern ab.<\/p>\n<p>The Verge beschreibt im Artikel\u00a0<a href=\"https:\/\/www.theverge.com\/ai-artificial-intelligence\/887309\/openai-anthropic-dod-military-pentagon-contract-sam-altman-hegseth\" target=\"_blank\" rel=\"noopener\">How OpenAI caved to the Pentagon on AI surveillance<\/a>, wie OpenAI sich zwar den Vertrag sichern konnte, aber wohl alle Positionen \"ger\u00e4umt hat\", egal, was Altman behauptet.<\/p>\n<h2>Die H\u00fctte brennt: OpenAI in der Falle<\/h2>\n<p>Die Entwicklungen des letzten Wochenendes haben dann alles, was bis Freitag galt, \u00fcber den Haufen geworfen. Das US-Milit\u00e4r f\u00fchrt gemeinsam mit Israel Luftangriffe auf Anlagen des Iran aus, und dabei kommt die KI-Software von Anthropic &#8211; trotz Bann &#8211; zum Einsatz. Das berichtet das Wall Street Journal in <a href=\"https:\/\/www.wsj.com\/livecoverage\/iran-strikes-2026\/card\/u-s-strikes-in-middle-east-use-anthropic-hours-after-trump-ban-ozNO0iClZpfpL7K7ElJ2\" target=\"_blank\" rel=\"noopener\">diesem Artikel<\/a>. Also: Die Vereinbarungen mit Anthropic wurden vom US-Milit\u00e4r einfach beiseite geschoben &#8211; und das Abkommen von OpenAI mit dem Pentagon d\u00fcrfte das Papier nicht wert sein, auf dem es verfasst wurde. Das US-Milit\u00e4r wird die OpenAI-L\u00f6sung nach eigenem Gusto &#8211; nat\u00fcrlich im Rahmen der \"gesetzlichen Grundlagen\" verwenden.<\/p>\n<p>Sam Altman und die OpenAI-F\u00fchrungskr\u00e4fte sahen sich am Wochenende zu einer Ask me anything (AMA) in s<a href=\"https:\/\/xcancel.com\/sama\/status\/2027900042720498089\" target=\"_blank\" rel=\"noopener\">ozialen Medien<\/a> veranlasst.\u00a0In der AMA-Session sagt Sam Altman, dass die Aufnahme von Anthropic in die schwarze Liste des Verteidigungsministeriums einen \"\u00e4u\u00dferst be\u00e4ngstigenden Pr\u00e4zedenzfall\" darstellt. Anthropic sollte nicht als \"Sicherheitsrisiko\" auf eine schwarze Liste <a href=\"https:\/\/xcancel.com\/openai\/status\/2027846016423321831\" target=\"_blank\" rel=\"noopener\">gesetzt werden<\/a>. Er gesteht aber auch ein, dass OpenAI den Deal mit dem Pentagon \u00fcberst\u00fcrzt hat, um \"die Lage zu deeskalieren\".<\/p>\n<p><a href=\"https:\/\/xcancel.com\/MrEwanMorrison\/status\/2027755682208862251\" target=\"_blank\" rel=\"noopener\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full\" src=\"https:\/\/borncity.com\/blog\/wp-content\/uploads\/2026\/03\/image-9.png\" alt=\"Die H\u00fctte brennt bei ChatGPT\" width=\"545\" height=\"625\" \/><\/a><\/p>\n<p>Aber die H\u00fctte brennt lichterloh bei OpenAI, Nutzer haben die Aktion QuitGPT ins Leben gerufen. Nach meinen Informationen haben zum Wochenende \u00fcber 700.000 ChatGPT-Nutzer OpenAI den R\u00fccken zugekehrt. Ob es alles zahlende Nutzer waren, ist mir nicht bekannt. Bleibt jetzt spannend, ob das nur ein Strohfeuer bleibt oder so etwas wie eine \"AI-Kernschmelze\" einleitet.<\/p>\n<blockquote><p>Im Kontext passt es gerade, was ich auf <a href=\"https:\/\/xcancel.com\/heygurisingh\/status\/2027760029101920357\" target=\"_blank\" rel=\"noopener\">X<\/a> gelesen habe: Forscher von Stanford HAI haben die Datenschutzrichtlinien der sechs gr\u00f6\u00dften KI-Unternehmen in Amerika analysiert. Es wurden nicht nur die jeweilige Hauptdatenschutzrichtlinie untersucht, sondern\u00a028 Datenschutzdokumente dieser sechs Unternehmen \u2013 also auch alle verlinkten Unterrichtlinien, FAQs und Leitf\u00e4den, die \u00fcber die Chat-Schnittstellen zug\u00e4nglich sind.<\/p>\n<p>Die Forscherbewerteten alle Dokumente anhand des California Consumer Privacy Act, dem umfassendsten Datenschutzgesetz der Vereinigten Staaten. Hier <a href=\"https:\/\/arxiv.org\/abs\/2509.05382\" target=\"_blank\" rel=\"noopener\">einige Ergebnisse<\/a> aus dieser Ver\u00f6ffentlichung:\u00a0\u00a0Alle AI-Unternehmen verwenden Konversationen der Nutzer mit den LLMs, um ihre Modelle zu trainieren. Standardm\u00e4\u00dfig. Ohne Nutzer ausdr\u00fccklich darum zu bitten.<\/p>\n<p>Jedes einzelne Unternehmen sammelt standardm\u00e4\u00dfig die Chat-Daten seiner Benutzer und speist diese in das Modelltraining ein. Einige speichern die Unterhaltungen auf unbestimmte Zeit. Es gibt keine Ablaufzeit. Keine automatische L\u00f6schung. Nutzerdaten bleiben einfach dort, f\u00fcr immer, und speisen zuk\u00fcnftige Versionen des Modells.<\/p>\n<p>Einige dieser Unternehmen lassen menschliche Mitarbeiter die Chat-Protokolle (keine anonymisierten Zusammenfassungen) als Teil des Trainingsprozesses lesen.<\/p>\n<p>Bei Unternehmen wie Google, Meta, Microsoft und Amazon, die auch Suchmaschinen, Social-Media-Plattformen, E-Commerce-Websites und Cloud-Dienste betreiben, bleiben die KI-Unterhaltungen nicht innerhalb des Chatbots. Vielmehr werden die Daten\u00a0mit allem anderen zusammengef\u00fchrt, was diese Unternehmen bereits \u00fcber den jeweiligen Benutzer (z.B. den Suchverlauf, Kaufdaten, Aktivit\u00e4ten in sozialen Medien, Datei-Uploads etc.) wissen. Perfekter Big Brother.<\/p><\/blockquote>\n","protected":false},"excerpt":{"rendered":"<p>Was f\u00fcr ein Wochenabschluss bzw. was f\u00fcr ein Wochenende. Letzten Freitag lief ein Ultimatum des US-Milit\u00e4rs (Pentagon) f\u00fcr den AI-Anbieter Anthropic aus. Der sollte seine AI-L\u00f6sung f\u00fcr Waffen und Massen\u00fcberwachung freigeben. Anthropic hat sich geweigert und wird rausgeworfen. Sam Altman &hellip; <a href=\"https:\/\/borncity.com\/blog\/2026\/03\/02\/nach-anthropic-rauswurf-beim-us-verteidigungsministerium-springt-openai-ein\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[8625,426],"tags":[8382,4328],"class_list":["post-322085","post","type-post","status-publish","format-standard","hentry","category-ai","category-sicherheit","tag-ai","tag-sicherheit"],"_links":{"self":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/322085","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/comments?post=322085"}],"version-history":[{"count":5,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/322085\/revisions"}],"predecessor-version":[{"id":322098,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/posts\/322085\/revisions\/322098"}],"wp:attachment":[{"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/media?parent=322085"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/categories?post=322085"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/borncity.com\/blog\/wp-json\/wp\/v2\/tags?post=322085"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}