ArtikelNews

Von „Software frisst die Welt“ zu „KI frisst SaaS“: Wie Generative KI das Betriebssystem der Unternehmen neu schreibt

Von „Software frisst die Welt“ zu „KI frisst SaaS“: Generative KI ersetzt starre Workflows durch zielorientierte Systems of Work—mit 20–30 % Effizienzpotenzial und neuen Spielregeln für Governance, Architektur und Rollenbilder.

Dr. Maximilian Focke
21.08.2025
5 Min. Lesezeit
Von „Software frisst die Welt“ zu „KI frisst SaaS“: Wie Generative KI das Betriebssystem der Unternehmen neu schreibt

Von „Software frisst die Welt“ zu „KI frisst SaaS“: Wie Generative KI das Betriebssystem der Unternehmen neu schreibt

2011 diagnostizierte Marc Andreessen: „Software frisst die Welt.“ Jetzt frisst generative KI die Software – sie verwandelt starre SaaS-Workflows in dynamische, zielorientierte Systems of Work. Für Unternehmen, Entwickler und Entscheider bedeutet das Effizienzsprünge, verschobene Rollen und neue Spielregeln für Governance und Architektur.

Die zentralen Punkte im Überblick

  • Paradigmenwechsel: Von vordefinierten Workflows zu KI-gesteuerten Zielsystemen, die Schritte dynamisch aus Daten und Kontext ableiten.
  • Messbare Effekte: Frühe Anwender berichten von 20–30 % Effizienzgewinnen; einzelne Programme (z. B. Hitachi) zeigen 70 % Plus in Shared Services.
  • SaaS-Disruption: Ein Ausgabensegment von 913 Mrd. $ (2023; +12,4 % ggü. Vorjahr) gerät unter Druck, beginnend bei hochvolumigen Standardprozessen.
  • Konkrete Signale: Unternehmen wie Klarna, Siemens, Mayo Clinic, JPMorgan und Hitachi ersetzen/ergänzen etablierte Systeme durch generative KI.
  • Arbeitswelt im Wandel: Rollen in Implementierung, Customizing und Betrieb schrumpfen oder verändern sich; Admin-Teams werden neu ausgerichtet.
  • Führungsagenda: Prioritäten liegen auf Governance, organisatorischer Readiness und strategischen Antworten (Interoperabilität, Conversational UX, gestufte Autonomie, „Jobs to be done“).

Detaillierte Analyse / Einordnung

Der Kern der Veränderung liegt in der Abstraktionsebene: Klassische SaaS-Anwendungen (z. B. CRM/HR) modellieren Prozesse als Sequenzen mit Feldern, Formularen und Übergaben. Generative KI dagegen startet beim Ziel (Outcome) und leitet die dafür nötigen Schritte aus heterogenen Datenströmen ab—E-Mails, Anrufe, Dokumente, Protokolle—und passt diese kontinuierlich an. Das verringert Medienbrüche, reduziert manuelle Dateneingaben und verkürzt Latenzen zwischen Ereignis und Aktion.

Was sich grundlegend ändert

Statt sequenzieller, expliziter und rigider Abläufe entstehen fluide, implizite und adaptive Prozesse. Die Interaktion verschiebt sich von „Formular ausfüllen“ zu natürlicher Sprache („Initiiere Onboarding für Jane Doe“). Die KI generiert Angebote, plant Termine, provisioniert Geräte und stößt Backend-Workflows autonom an. Auch anspruchsvolle Ad-hoc-Fragen—z. B. „Wie viele qualifizierte Leads >100.000 $ in Deutschland im laufenden Quartal?“—werden dialogisch beantwortet, indem die KI Abfragen generiert, Daten validiert und Ergebnisse erklärt.

Der Status quo der frühen Umstellung

Die Umstellung ist bereits sichtbar:
Klarna (85 Mio. Kunden) kündigte 2024 an, zentrale SaaS-Provider (u. a. CRM/HR) abzuschalten und auf eine interne, KI-gestützte Daten- und Applikationsschicht (u. a. Neo4j, LLM-Tools) zu setzen. Siemens nutzt konversationelle Bots statt klassischer ERP-Interaktionen für Supply-Chain-Analysen. Mayo Clinic pilotiert generative KI für ärztliche Dokumentation, JPMorgan für Research-Erstellung. Hitachi erreichte mit einem agentischen Ansatz 70 % Effizienz in HR-Shared-Services (120.000 Mitarbeitende; Rollout in acht Wochen). Die erste Welle adressiert hochvolumige Use Cases wie Spesen, Stellenpostings, Bewerber-Tracking, IT-Support und Sales-Compensation; komplexere Domänen (z. B. Produktionsplanung, Forecasting, Lead-Qualifizierung) werden unter fünf Jahren erwartet.

Implikationen für Unternehmen

Die Verschiebung trifft Technologie, Organisation und Risikosteuerung zugleich. Daten werden zum zentralen Produktionsfaktor; Governance (Qualität, Sicherheit, Lineage, Compliance) entscheidet über Skalierbarkeit und Vertrauen. Rollen, die um Konfiguration und Betrieb starrer Systeme gebaut wurden, verlagern sich in Richtung Daten-/Modellbetrieb, Prompt-/Agent-Design und Produktmanagement für Outcomes. Ohne Interoperabilität (offene APIs, modulare Architekturen) drohen Insellösungen. Entscheider benötigen gestufte Autonomie-Modelle (von „human-in-the-loop“ bis vollautonom), um Risiken zu steuern und Akzeptanz zu sichern.

Handlungsempfehlungen für die Praxis

  • Data & Model Governance etablieren: Qualität, Sicherheit, Zugriffsmodelle, Lineage und Monitoring für Bias/Drift als verbindlichen Kontrollrahmen verankern.
  • Pilotieren, wo Volumen und Regeln klar sind: Spesen, IT-Support oder ATS als „System-of-Work“-Piloten wählen, mit klaren KPIs (z. B. Durchlaufzeit, First-Contact-Resolution, Auto-Approval-Quote).
  • Conversational UX konsequent designen: Aufgaben in natürliche Sprache überführen; Guardrails (Bestätigungen, Erklärungen, Rückfragen) produktiv einbauen.
  • Interoperabilität voraussetzen: Auf offene Schnittstellen, Event-Streams und modulare Services bestehen, um Legacy-Systeme und KI-Agenten zu verbinden.
  • Gestufte Autonomie anbieten: Modi von Assist („Vorschlag“) über Co-Pilot („Ausführung mit Bestätigung“) bis Auto-Pilot („Ausführung mit Audit-Trail“) definieren.
  • Workforce neu ausrichten: Rollen- und Skill-Matrizen aktualisieren, Reskilling für Datenkompetenz und Agent-Ops planen, Change-Management früh starten.

Fazit

Generative KI verschiebt den Fokus von Prozesskonfiguration zu Ergebnisverantwortung—mit deutlichen Produktivitätshebeln und veränderten Kompetenzprofilen. Wer Governance, Interoperabilität und Conversational UX zusammen denkt, kann frühe Erfolge in standardisierten Prozessen erzielen und schrittweise in komplexere Domänen skalieren.