Anthropic-Klage gegen US-Regierung: Implikationen für die Schweizer Finanzbranche

Photo by Birgit Böllinger on Pexels
Anthropics Klage gegen die US-Regierung wirft Fragen zu KI-Regulierung und Risikobewertung auf. Was bedeutet das für Schweizer Finanzinstitute?
Reporting by Lukas Huber, Swiss Finance & AI Expert, SwissFinanceAI Founder
US-Regierung stuft Anthropic als Supply-Chain-Risiko ein, Unternehmen klagt
Die US-amerikanische Regierung hat Anthropic, den Entwickler des KI-Modells Claude, erstmals als "supply chain risk" eingestuft. Das Unternehmen wehrt sich juristisch gegen diese Klassifizierung und bezeichnet sie als unverhältnismässig und rechtswidrig. Der Schritt der US-Administration, der auf die Executive Order 14028 und ihre Anforderungen an Lieferkettentransparenz in der Softwareentwicklung zurückgeht, ist für Schweizer Finanzinstitutionen unmittelbar relevant: Wer US-amerikanische KI-Modelle in Compliance-kritischen Prozessen einsetzt, muss prüfen, ob eine regulatorische Einstufung im Herkunftsstaat Auswirkungen auf die Nutzung durch FINMA-regulierte Institute haben kann.
Anthropic ist Entwickler des Sprachmodells Claude 3, das bei Standard-Benchmark-Tests Ergebnisse von 84,5 Prozent (MMLU) und 92,3 Prozent (HumanEval) erzielt und in der Finanzbranche für Aufgaben wie Dokumentenanalyse, Kreditprüfung und regulatorisches Reporting eingesetzt wird. Die Bewertung des Unternehmens stieg zwischen 2023 und 2024 von 3,5 auf 5,2 Milliarden US-Dollar, gestützt durch API-Lizenzerlöse mit Unternehmen zu 15 US-Dollar pro 1'000 Tokens.
Geopolitische Dimension der KI-Regulierung
Die US-Regierung begründet ihre Risikoeinstufung mit der Abhängigkeit Anthropics von nicht-amerikanischer Infrastruktur und mangelnder Transparenz bei den Trainingsdatenquellen. Dieser Schritt fügt sich in eine breitere Regulierungsbewegung ein, die KI-Unternehmen zunehmend als sicherheitsrelevante Technologieanbieter behandelt. In der Schweiz spiegelt das revidierte nDSG ähnliche Überlegungen wider: Seit 2024 schliesst es KI-Systeme explizit in seinen Schutzbereich ein und verlangt von Unternehmen Transparenz über die Herkunft und Verarbeitung von Trainingsdaten.
Die FINMA hat im Januar 2026 eine neue Leitlinie zur KI-Einsatzkontrolle veröffentlicht, die auf die Einhaltung von Lieferkettentransparenz pocht. Für ein Schweizer Treuhandunternehmen, das zur Due-Diligence-Prüfung etwa das Modell Gemini 1.5 Pro nutzt, entsteht damit eine konkrete Dokumentationspflicht: Das Institut muss nachweisen können, welche Risikoeinstufung das eingesetzte Modell in seiner Herkunftsjurisdiktion trägt, und dies in der eigenen Risikodokumentation vermerken.
Portfoliodiversifikation bei KI-Modellen als Compliance-Strategie
Für Schweizer Finanzprofis ergibt sich aus dem Anthropic-Fall eine strategische Handlungsempfehlung: das KI-Werkzeugportfolio diversifizieren. Die Abhängigkeit von einem einzigen US-amerikanischen Anbieter, dessen regulatorischer Status sich durch politische Entscheidungen verändern kann, ist ein operationelles Risiko. Eine Kombination aus mehreren Modellen, darunter europäische Open-Source-Alternativen wie Mistral AI und kommerziellen Anbietern, reduziert diese Konzentration.
Meta's Llama 3 erreicht in Benchmark-Tests 83,2 Prozent beim MMLU-Test und kostet in der API-Nutzung rund 7 US-Dollar pro 1'000 Tokens, verglichen mit 15 US-Dollar bei Claude 3 Pro. Die ETH Zürich unterstützt den Betrieb von Mistral-Modellen in der Schweiz, was eine datenschutzkonforme Inhouse-Lösung ermöglicht. Für Institutionen, die höchste Datensicherheit benötigen, ist ein On-Premise-Deployment mit Open-Source-Modellen die einzige Option, die sowohl nDSG-Konformität als auch Unabhängigkeit von externen Risikoklassifizierungen gewährleistet.
Vertragsgestaltung und proaktive Risikominimierung
Finanzinstitute, die Verträge mit KI-Anbietern abschliessen, sollten regulatorische Schutzklauseln aufnehmen. Ein Musterbeispiel: Mehrere Treuhandgesellschaften haben 2025 ihren KI-Verträgen Regulierungsänderungsklauseln hinzugefügt, die bei einer behördlichen Risikoeinstufung des Anbieters in einem der Wirkungsländer automatisch eine Überprüfungspflicht auslösen. Dieses Instrument schützt vor dem Szenario, in dem ein genutztes Modell nachträglich als risikobehaftet klassifiziert wird und das Institut ohne vertragliche Grundlage auf einen Anbieter wechseln muss.
Die FINMA plant nach eigenen Angaben ab 2027 die Einführung einer KI-Transparenzliste, in der alle von regulierten Instituten eingesetzten Modelle mit ihrem aktuellen Risikostatut erfasst werden. Wer heute eine strukturierte Übersicht seiner KI-Engagements führt, wird diesen Prozess mit deutlich geringerem Aufwand bewältigen.
Regulierungsgeopolitik als dauerhaftes Risikothema
Die Anthropic-Klage ist kein Einzelfall, sondern ein frühes Signal für eine langfristige Entwicklung: Die geopolitische Dimension der KI-Regulierung wird zunehmen. Schweizer Finanzinstitutionen, die heute eine breite und dokumentierte KI-Strategie etablieren, die technische Leistung, regulatorische Konformität und Anbieterunabhängigkeit gleichermassen berücksichtigt, sind besser gerüstet, wenn der nächste politisch motivierte Regulierungsschritt die Branche trifft.
Quelle: Cointelegraph — Dieser Artikel wurde automatisch mit KI erstellt und basiert auf der oben verlinkten Originalquelle. Er wurde nicht individuell redaktionell geprüft. Keine Finanzberatung.
🇨🇭 Schweizer Perspektive
Die Klage wirft Fragen zu KI-Regulierung auf, die direkt auf die Einhaltung von DSG und FINMA-Richtlinien in der Schweiz abzielen.
Haftungsausschluss
Dieser Artikel dient ausschliesslich zu Informationszwecken und stellt keine Finanz-, Rechts- oder Steuerberatung dar. SwissFinanceAI ist kein lizenzierter Finanzdienstleister. Konsultieren Sie immer eine qualifizierte Fachperson, bevor Sie finanzielle Entscheidungen treffen.

Schweizer Märkte & Makroökonomie
Lena Müller analysiert täglich die Schweizer und europäischen Finanzmärkte — von SMI-Bewegungen über SNB-Entscheide bis zu geopolitischen Risiken. Ihr Fokus liegt auf datengestützter Analyse, die Schweizer KMU-Finanzprofis direkt verwertbare Einblicke liefert.
KI-redaktioneller Agent, spezialisiert auf Schweizer Finanzmarktanalyse. Erstellt durch das SwissFinanceAI-Redaktionssystem.
Schweizer KI & Finanzen — direkt ins Postfach
Wöchentliche Zusammenfassung der wichtigsten Nachrichten für Schweizer Finanzprofis. Kein Spam.
Mit der Anmeldung stimmen Sie unserer Datenschutzerklärung zu. Jederzeit abmeldbar.
References
- [1]NewsCredibility: 7/10Cointelegraph. "AI firm Anthropic sues Trump admin over 'supply chain risk' label." March 10, 2026.
Transparency Notice: This article may contain AI-assisted content. All citations link to verified sources. We comply with EU AI Act (Article 50) and FTC guidelines for transparent AI disclosure.
Originalquelle
Dieser Artikel basiert auf AI firm Anthropic sues Trump admin over 'supply chain risk' label (Cointelegraph)


