Die Regulierung Künstlicher Intelligenz (KI) erreicht eine neue Stufe. In den USA sollen staatliche Stellen leistungsfähige KI-Modelle künftig bereits vor ihrer Veröffentlichung auf Sicherheitsrisiken überprüfen. Betroffen sind insbesondere sogenannte Frontier-Modelle großer Anbieter wie beispielsweise OpenAI und Google DeepMind. Die Entwicklung dürfte auch für das öffentliche Beschaffungswesen von erheblicher Bedeutung sein. Denn mit steigenden regulatorischen Anforderungen an Transparenz, Sicherheit und Nachvollziehbarkeit von KI-Systemen wachsen zugleich die vergaberechtlichen Anforderungen an deren Beschaffung und Einsatz durch öffentliche Auftraggeber.
Hintergrund sind zunehmende Sorgen über den möglichen Missbrauch generativer KI – etwa für Cyberangriffe, Desinformation, automatisierte Schwachstellenanalyse oder sicherheitsrelevante militärische Anwendungen. US-Behörden diskutieren deshalb Modelle einer vorgelagerten Sicherheitsprüfung, bevor besonders leistungsfähige Systeme öffentlich verfügbar gemacht werden.
Von der Selbstregulierung zur staatlichen Vorabkontrolle
Bislang beruhte die Kontrolle leistungsfähiger KI-Systeme überwiegend auf freiwilligen Selbstverpflichtungen der Entwicklerunternehmen. Nun deutet sich in den USA ein Strategiewechsel an: Staatliche Stellen sollen direkten Zugang zu sicherheitskritischen Modellen erhalten, um Risiken vor der Veröffentlichung bewerten zu können.
Diskutiert werden unter anderem:
- verpflichtende Sicherheitstests,
- Red-Teaming durch Behörden,
- Meldepflichten für Hochleistungsmodelle,
- sowie fortlaufende Überwachungs- und Auditmechanismen.
Kritiker warnen allerdings vor einer zu weitreichenden staatlichen Kontrolle. Eine verpflichtende Vorabprüfung könnte Innovationsprozesse verlangsamen und Markteintrittshürden erhöhen. Zudem besteht die Sorge, dass Regierungen durch Prüfverfahren direkten Zugang zu besonders leistungsfähigen Modellen und sensiblen Trainingsmechanismen erhalten.
Befürworter argumentieren hingegen, dass gerade bei KI-Systemen mit potenziell erheblicher gesellschaftlicher Wirkung eine reine Selbstregulierung der Anbieter nicht mehr ausreiche.
Weitere Information auch bei Der Zeit unter dem Titel: „Künstliche Intelligenz: USA erwägen offenbar staatliche Regulierung neuer KI-Modelle“.
Der IT-Vergabetag des Deutschen Vergabenetzwerks (DVNW) befasst sich in diesem Jahr neben den Themen Beschaffung von Künstlicher Intelligenz (KI) wie auch der Beschaffung mit KI-Unterstützung vor allem mit den Fragen zur digitalen Souveränität. Am 10. Juni 2026 wird in der Berlin-Brandenburgischen Akademie der Wissenschaften hinterfragt, was „digitale Souveränität“ bedeutet und wie sie durch Beschaffung erreicht werden kann. Weitere Informationen zum Programm sowie zur Anmeldung finden Sie hier.
Bedeutung für die Vergabepraxis
Die USA testen derzeit einen Regulierungsansatz, der weit über klassische Marktaufsicht hinausgeht. Sollte sich ein Modell staatlicher KI-Vorabkontrolle etablieren, dürfte dies auch die europäische Diskussion beeinflussen – insbesondere im öffentlichen Beschaffungswesen.
Die Diskussion dürfte auch für den öffentlichen Sektor in Deutschland erhebliche Bedeutung entfalten. Mit dem europäischen AI Act entstehen erstmals umfassende regulatorische Anforderungen für Hochrisiko-KI-Systeme. Behörden werden sich künftig intensiver mit Fragen der Transparenz, Nachvollziehbarkeit und Risikobewertung befassen müssen.
Für öffentliche Auftraggeber stellen sich insbesondere folgende Fragen:
- Wie lassen sich KI-Systeme vergaberechtskonform beschaffen?
- Welche Nachweise müssen Anbieter künftig erbringen?
- Welche Audit- und Kontrollrechte benötigen Behörden?
- Wie kann die Validität KI-generierter Ergebnisse überprüft werden?
- Wer haftet bei Fehlentscheidungen automatisierter Systeme?
Gerade bei sicherheitsrelevanten Anwendungen könnte der Ruf nach unabhängigen Prüfmechanismen deutlich lauter werden. KI-Beschaffung sind künftig nicht nur eine Frage von Funktionalität und Wirtschaftlichkeit sein, sondern zunehmend auch von Sicherheit, Kontrollierbarkeit und regulatorischer Compliance.















Schreibe einen Kommentar