Je stärker KI in Kreditvergabe, Medizin oder Industrieprozesse vordringt, desto wichtiger werden spezialisierte Lösungen für Governance und Model Risk Management.
Je stärker Künstliche Intelligenz in kritische Prozesse vordringt, desto lauter wird die Frage: Wer übernimmt Verantwortung, wenn Modelle Fehler machen. Banken, Versicherer, Gesundheitsanbieter und Industrieunternehmen setzen KI inzwischen in zentralen Abläufen ein – von Kreditentscheidungen über Risikomodelle bis zur Steuerung physischer Anlagen. Parallel verschärfen Aufseher und Gesetzgeber ihre Anforderungen: EU-AI-Act, ISO-42001, NIST-AI-Frameworks und verschiedene nationale Leitlinien verlangen nachvollziehbare, kontrollierbare KI-Systeme. Für Investoren entsteht damit ein neues Ökosystem aus Anbietern von AI Governance und Model Risk Management.
Zahlen belegen die Dynamik. Laut Marktstudien lag das weltweite Volumen im Bereich AI Model Risk Management 2023 bei rund 5,5 bis 5,7 Milliarden US-Dollar und könnte bis 2030 auf etwa 12 bis 13 Milliarden US-Dollar wachsen, was jährlichen Wachstumsraten von knapp 13 Prozent entspricht. Der engere Markt für AI Governance – also Lösungen für Modelllebenszyklus, Compliance, Monitoring und Auditing – wird auf rund 0,9 Milliarden US-Dollar im Jahr 2024 geschätzt und soll bis 2029 auf nahezu 5,8 Milliarden US-Dollar anwachsen. Gleichzeitig berichten Unternehmensbefragungen, dass zwar eine Mehrheit der Unternehmen KI-Governance als größte Compliance-Herausforderung identifiziert, aber nur ein kleiner Teil bereits über kontinuierliche Monitoring-Systeme verfügt. „Wir stehen am Anfang eines Marktes, der durch Regulierung quasi ,strukturell bestellt‘ ist“, sagt Tilmann Speck, Portfoliomanager des „AI Leaders“ (WKN: A2PF0M / ISIN: DE000A2PF0M4). „Sobald KI in Kernprozessen eingesetzt wird, kommen Unternehmen an der Frage der Modellrisiken nicht mehr vorbei – zumal Aufseher und Standardsetzer inzwischen sehr konkrete Erwartungen formulieren.“ Institutionen wie das Financial Stability Board, nationale Aufsichtsbehörden oder Zentralbanken weisen bereits explizit darauf hin, dass Abhängigkeiten von externen KI-Modellen, Korrelationen in den verwendeten Daten und unzureichende Governance potenzielle Risiken für ganze Sektoren erzeugen können.
Das entstehende Ökosystem lässt sich grob in mehrere Klassen von Anbietern gliedern. Erstens Plattformen für AI Risk Management, die Unternehmen beim Inventar der eingesetzten Modelle, bei der automatisierten Dokumentation von Trainingsdaten, bei Tests auf Bias und Robustheit sowie beim laufenden Monitoring unterstützen. Sie liefern Dashboards, in denen Performance-Kennzahlen, Compliance-Status und Audit-Trails zusammenlaufen. Zweitens hochspezialisierte Lösungen, etwa für den Finanzsektor, die sich auf Validierung und Überwachung von Kredit- und Marktrisikomodellen konzentrieren. Drittens Anbieter, die sich auf die Sicherheit von KI-Agenten und -Workflows fokussieren – also darauf, zu verhindern, dass autonome Systeme missbraucht werden oder in sicherheitskritischen Umgebungen „ausbrechen“. So hat etwa ein US-Start-up, das sich auf die Überwachung von KI-Agenten spezialisiert, jüngst einen hohen zweistelligen Millionenbetrag an Wachstumskapital eingeworben, um Sicherheits- und Governance-Features weiter auszubauen.
Für Investoren ist dieser Markt aus mehreren Gründen interessant. Zum einen sind die Nachfrageimpulse stark regulierungsgetrieben; sie hängen also weniger von kurzfristiger Konjunktur, sondern eher von Aufsichts- und Haftungsregimen ab. Zum anderen sind die Lösungen tief in die IT- und Compliance-Architekturen der Kunden eingebettet. Einmal implementierte Plattformen für AI Governance werden nicht leicht ersetzt, weil sie Schnittstellen zu Modellentwicklung, Fachbereichen, Risikomanagement und Revision aufbauen. „Das schafft potenziell hohe Wechselkosten und wiederkehrende Erlösströme“, erklärt Co-Manager Christian Hintz. „Dafür müssen Anbieter aber zeigen, dass sie nicht nur ,nice to have‘ sind, sondern konkrete Risiken und Kosten messbar reduzieren.“
Gleichzeitig sind die Anforderungen an diese Unternehmen hoch. Sie bewegen sich in einem Spannungsfeld aus technischer Komplexität, rechtlichen Vorgaben und ethischen Fragestellungen. Werkzeuge für Model Risk Management müssen nicht nur KI-Modelle verstehen, sondern sich in unterschiedliche Branchen- und Regulierungslogiken einfügen – von Bankenaufsicht über Medizinprodukte bis zu kritischer Infrastruktur. Standards wie der EU-AI-Act, der KI nach Risikoklassen einteilt und für Hochrisiko-Anwendungen strenge Dokumentations- und Transparenzpflichten vorsieht, erhöhen diesen Druck zusätzlich. Aus Sicht der „AI Leaders“-Fondsmanager ist der entstehende Governance-Markt daher vor allem ein „Picks-and-Shovels“-Thema: „Wer in KI investiert, muss auch in die Infrastruktur investieren, die diese Systeme sicher und verantwortungsvoll betreibbar macht“, so Tilmann Speck. „Für langfristig orientierte Anleger ist entscheidend, welche Unternehmen sich als ,Betriebssystem‘ für regulierte KI etablieren. Das können spezialisierte Softwarehäuser sein, aber auch große Plattformanbieter, die Governance und Monitoring als eigenständige Produktlinie ausbauen.“
Die Herausforderung für Investoren besteht darin, zwischen kurzfristigem Hype und nachhaltigen Geschäftsmodellen zu unterscheiden. Nicht jede Lösung, die sich „AI Governance“ nennt, adressiert tatsächlich die Kernprobleme von Modellrisiko, Haftung und Aufsicht. Der Investmentfokus des AI Leaders liegt deshalb auf Anbietern, die sich über belastbare Referenzen, regulatorische Anschlussfähigkeit und klar definierte Produktmetriken differenzieren – etwa über dokumentierte Reduktionen von Fehlalarmen, schnelleres Modell-Onboarding oder nachweislich erfüllte Compliance-Anforderungen in regulierten Sektoren. „Am Ende wird KI nur dann breit akzeptiert, wenn sie steuerbar bleibt“, fasst Christian Hintz zusammen. „Die Unternehmen, die dieses Steuerungsproblem technisch und organisatorisch lösen, gehören aus unserer Sicht in jede ernsthafte Diskussion über KI-Investments.“
Verantwortlicher für diese Pressemitteilung:
AI LEADERS
Herr Christian Hintz
Kronprinzstraße 17
70173 Stuttgart
Deutschland
fon ..: +49 (0) 711 63 22 42
web ..: https://ai-leaders.de
email : info@christianhintz.com
Über den Fonds „AI Leaders“
Der „AI Leaders“ (WKN: A2PF0M / ISIN: DE000A2PF0M4) ist ein ist ein global investierender Aktienfonds mit dem Fokus auf Anbieter und Anwender Künstlicher Intelligenz. Das Managementteam bestehend aus Christian Hintz, Tilmann Speck und Gerd Schäfer verwaltet ein Portfolio von bis zu 160 Werten von Herstellern und Anbietern von KI-Hardware und von KI-Software, Anwendern von KI-Hard- oder -Software für den eigenen Unternehmenszweck und Dienstleister im Bereich von KI. Bis 2030 erwarten Experten für die Künstliche Intelligenz einen Wertschöpfungsbeitrag zum weltweiten Bruttosozialprodukt in Höhe von 1,2 Prozent pro Jahr. Bei den bis zu 160 Portfoliounternehmen des „AI Leaders“ handelt es sich um Gesellschaften mit einer führenden Marktstellung. Das Portfoliomanagement-Team setzt den digitalen Investmentprozess ,TOPAS‘ des Wertpapierinstituts ELAN Capital-Partners GmbH ein. Dieser wurde für die zeitnahe Steuerung von Portfoliobausteinen konzipiert und balanciert Tag für Tag die Allokation des Portfolios, um den sich jeweils ändernden Marktbedingungen zu entsprechen. Damit können die Faktorprämien von Wachstumswerten eingenommen werden, während die Volatilität auf einem gesamtmarktüblichen Niveau gehalten wird. Weitere Informationen unter https://ai-leaders.de
Pressekontakt:
AI LEADERS
Herr Christian Hintz
Kronprinzstraße 17
70173 Stuttgart
fon ..: +49 (0) 711 63 22 42
web ..: https://ai-leaders.de
email : info@christianhintz.com

