Veröffentlicht am Mai 17, 2024

Die richtige Entscheidung ist nicht Cloud ODER On-Premise, sondern ein strategischer Mix, der durch das Risiko und die Anforderungen jedes einzelnen Workloads definiert wird.

  • Rechtliche Risiken (DSGVO vs. Cloud Act) diktieren oft den Speicherort für sensible Daten und machen europäische Lösungen zur Pflicht.
  • Versteckte Betriebskosten und Abo-Fallen in der Cloud können anfängliche Einsparungen zunichtemachen und erfordern eine strenge Kostenkontrolle (FinOps).

Empfehlung: Beginnen Sie mit einer granularen Analyse jedes Geschäftsprozesses (Workloads), um dessen idealen, risikominimierten Betriebsort – Cloud, On-Premise oder Hybrid – zu bestimmen.

Die Debatte „Cloud versus On-Premise“ wird im deutschen Mittelstand oft auf eine einfache Kostenfrage reduziert: monatliche Betriebskosten (OpEx) gegen hohe Anfangsinvestitionen (CapEx). Doch diese Sichtweise greift zu kurz und ist gefährlich. Für IT-Entscheider, die die Verantwortung für sensible Unternehmensdaten und reibungslose Prozesse tragen, ist dies keine Frage der Buchhaltung, sondern des strategischen Risikomanagements. Die wahre Herausforderung liegt darin, die Innovationskraft der Cloud zu nutzen, ohne die Kontrolle über Kosten, Sicherheit und vor allem die digitale Souveränität zu verlieren.

Wie der Senior Consulting Manager bei IDC, Matthias Zacher, treffend bemerkt, ist Vertrauen der entscheidende Faktor in der digitalen Wirtschaft:

Vertrauen bzw. Trust zwischen Kunden, Anbietern und Partnern wird bei Abwicklung von Geschäften in der digitalen Welt immer wichtiger. Souveräne Clouds sind ein zentraler Faktor für Vertrauen und ebenso für IT-Sicherheit.

– Matthias Zacher, Senior Consulting Manager bei IDC

Die eigentliche Frage lautet also nicht, welche Option pauschal besser ist, sondern welche Architektur für welchen spezifischen Anwendungsfall – welchen Workload – das geringste Risiko und den größten strategischen Nutzen bietet. Dieser Artikel liefert Ihnen kein pauschales Urteil, sondern einen praxisorientierten Entscheidungs-Framework. Wir analysieren die kritischen Risikovektoren von der DSGVO-Konformität über versteckte Kostenfallen bis hin zur sicheren Anbindung von Remote-Mitarbeitern und zeigen, wie Sie eine maßgeschneiderte, zukunftssichere IT-Infrastruktur für Ihr Unternehmen aufbauen.

Dieser Leitfaden ist strukturiert, um Ihnen eine fundierte Entscheidungsgrundlage zu bieten. Wir beleuchten die wichtigsten Aspekte, die Sie bei der Wahl Ihrer IT-Infrastruktur berücksichtigen müssen, und geben Ihnen konkrete Werkzeuge an die Hand.

US-Cloud-Act vs. DSGVO: Wo müssen Ihre Daten liegen, um legal zu sein?

Für deutsche Unternehmen ist dies der kritischste und am wenigsten verhandelbare Punkt. Die Datenschutz-Grundverordnung (DSGVO) fordert strikten Schutz personenbezogener Daten. Dem steht der US CLOUD Act gegenüber, der es US-Behörden erlaubt, auf Daten zuzugreifen, die von US-Unternehmen gespeichert werden – selbst wenn die Server in der EU stehen. Dieses Spannungsfeld schafft einen erheblichen rechtlichen Risikovektor. Die „Schrems II“-Entscheidung des Europäischen Gerichtshofs hat frühere Abkommen wie das Privacy Shield für ungültig erklärt und die Messlatte für den Datentransfer in Drittstaaten extrem hoch gelegt.

Die Konsequenz für den Mittelstand ist eindeutig: Die Hoheit über die eigenen Daten, die digitale Souveränität, ist kein „Nice-to-have“, sondern eine geschäftskritische Notwendigkeit. Die Lagerung von sensiblen Kunden- oder Mitarbeiterdaten bei einem Hyperscaler mit US-Mutterkonzern birgt ein permanentes Restrisiko. Aus diesem Grund gewinnen europäische und deutsche Cloud-Anbieter, die nicht dem CLOUD Act unterliegen und ihre Dienstleistungen nach deutschem Recht erbringen, massiv an Bedeutung. Eine Studie von KPMG unterstreicht diese Entwicklung: Für 58% der Unternehmen sind souveräne Cloud-Angebote bereits ein „Must-have“. Die Wahl des Anbieters ist somit die erste und wichtigste Weichenstellung im Risikomanagement.

Ihr Aktionsplan: Checkliste für einen DSGVO-konformen Cloud-Anbieter

  1. Firmensitz & Rechtsform prüfen: Bevorzugen Sie Anbieter, die als deutsche GmbH oder europäische SE firmieren und deren Mutterkonzern nicht in den USA ansässig ist.
  2. Technische & Organisatorische Maßnahmen (TOMs) einfordern: Verlangen Sie eine detaillierte Dokumentation der Sicherheitsmaßnahmen gemäß Art. 32 DSGVO, insbesondere zur Verschlüsselung und Zugriffskontrolle.
  3. Gerichtsstand & anwendbares Recht klären: Der Vertrag muss einen deutschen oder EU-Gerichtsstand festlegen und die ausschließliche Geltung von EU-Recht garantieren.
  4. Garantien gegen Drittstaatenzugriff verlangen: Fordern Sie explizite vertragliche Zusicherungen, dass der Anbieter sich gegen Herausgabeanforderungen auf Basis des US CLOUD Acts zur Wehr setzt.
  5. Zertifizierungen verifizieren: Achten Sie auf relevante Gütesiegel wie BSI C5 (Cloud Computing Compliance Controls Catalogue), ISO 27001 oder die Einhaltung des CISPE (Cloud Infrastructure Services Providers in Europe) Code of Conduct.

Abo-Modelle: Warum Cloud-Kosten schleichend explodieren können

Das verlockendste Argument für die Cloud ist das Pay-as-you-go-Modell: keine hohen Anfangsinvestitionen (CapEx), sondern flexible monatliche Betriebskosten (OpEx). Doch hier lauert die TCO-Falle (Total Cost of Ownership). Während On-Premise-Kosten nach der Anfangsinvestition relativ planbar sind (Strom, Wartung, Personal), können Cloud-Kosten unbemerkt eskalieren. Jeder zusätzliche Nutzer, jede neue Funktion, jede Gigabyte an ausgehendem Traffic (Egress-Kosten) erhöht die monatliche Rechnung.

Ohne striktes Monitoring und eine klare Governance geraten die Ausgaben schnell außer Kontrolle. Dieses Phänomen ist so verbreitet, dass bereits der Begriff FinOps (Financial Operations) entstanden ist, eine Disziplin, die sich ausschließlich mit der Steuerung von Cloud-Kosten beschäftigt. Die Gefahr ist real: Eine von VMware durchgeführte Studie zeigt, dass 31% der IT-Entscheider die Verschwendung von Cloud-Ausgaben auf über 50% schätzen. Ursachen sind oft überdimensionierte Instanzen, ungenutzte Ressourcen und fehlende Automatisierung beim Herunterfahren von Testumgebungen.

Die Visualisierung der Kostenentwicklung über einen Zeitraum von fünf Jahren zeigt oft ein klares Bild: Die On-Premise-Kurve beginnt hoch und flacht ab, während die Cloud-Kurve niedrig startet, aber stetig ansteigt und die On-Premise-Kosten nach einigen Jahren übertreffen kann.

Kostenvergleich zwischen Cloud und On-Premise über fünf Jahre visualisiert

Eine realistische TCO-Analyse muss daher alle potenziellen Kostenfaktoren über einen Lebenszyklus von mindestens drei bis fünf Jahren berücksichtigen. Dazu gehören nicht nur die reinen Abonnementgebühren, sondern auch Kosten für Datenmigration, Integration, Schulung und den internen Aufwand für das Management der Cloud-Umgebung. Nur so lässt sich ein fairer Vergleich zur Anschaffung und zum Betrieb eigener Hardware anstellen.

Big Bang oder schrittweise: Wie Sie in die Cloud umziehen, ohne den Betrieb lahmzulegen

Die Entscheidung für die Cloud (oder einen hybriden Ansatz) ist nur der erste Schritt. Die Umsetzung entscheidet über Erfolg oder Misserfolg. Ein „Big Bang“-Ansatz, bei dem alle Systeme auf einmal migriert werden, ist für die meisten Mittelständler zu riskant. Er birgt die Gefahr von Betriebsausfällen, Datenverlusten und überforderten Mitarbeitern. Der architektonisch saubere und strategisch überlegene Weg ist eine schrittweise Migration auf Basis einer granularen Workload-Analyse. Nicht jede Anwendung ist für die Cloud geeignet.

Der Schlüssel liegt darin, Ihre IT-Landschaft in einzelne „Workloads“ zu zerlegen und für jeden einzelnen die beste Betriebsumgebung zu finden. Ein Workload ist ein spezifischer Geschäftsprozess oder eine Anwendung, z. B. das ERP-System, die E-Mail-Kommunikation, der Online-Shop oder die Produktionssteuerung. Für jeden Workload müssen Sie dessen spezifische Anforderungen an Sicherheit, Performance (Latenz), Skalierbarkeit und Compliance bewerten. Daraus ergibt sich eine natürliche Priorisierung für die Migration und die Entscheidung, ob der Workload in die Public Cloud, eine Private Cloud oder On-Premise gehört.

Die folgende Tabelle, basierend auf einer verbreiteten Analyse zur Workload-Eignung, bietet einen ersten Anhaltspunkt für diese Klassifizierung.

Eignung verschiedener Workloads für Cloud vs. On-Premise
Workload-Typ Cloud-Eignung On-Premise-Eignung Empfehlung
Webseiten/E-Commerce Sehr hoch Niedrig Cloud First
Entwicklungsumgebungen Hoch Mittel Cloud bevorzugt
Kern-ERP-System Mittel Hoch Hybrid/On-Premise
Sensible Produktionsdaten Niedrig Sehr hoch On-Premise
E-Mail/Collaboration Sehr hoch Niedrig Cloud (Microsoft 365)

Dieser hybride Ansatz ist kein Kompromiss, sondern die logische Konsequenz einer professionellen IT-Architektur. Er erlaubt es, die Elastizität der Cloud für skalierbare Web-Anwendungen zu nutzen, während das unternehmenskritische ERP-System mit seinen hochsensiblen Daten sicher im eigenen Rechenzentrum verbleibt.

VPN und Cloud-Zugriff: Wie Sie Remote-Arbeit sicher gestalten

Die Zunahme von Remote-Arbeit hat einen weiteren kritischen Risikovektor offengelegt: den sicheren Zugriff auf Unternehmensressourcen, egal ob diese in der Cloud oder On-Premise liegen. Der traditionelle Ansatz, ein Virtual Private Network (VPN), stößt hier an seine Grenzen. Ein VPN funktioniert nach dem „Burg und Graben“-Prinzip: Wer einmal drin ist, hat oft weitreichenden Zugriff auf das gesamte Netzwerk. Das ist in einer dezentralen, hybriden Welt ein erhebliches Sicherheitsrisiko.

Der moderne, architektonisch überlegene Ansatz ist die Zero-Trust-Netzwerkarchitektur (ZTNA). Das Grundprinzip lautet: „Never trust, always verify.“ Statt einem Gerät pauschal Zugriff auf das Netzwerk zu gewähren, wird jede einzelne Zugriffsanfrage auf eine bestimmte Anwendung oder Ressource authentifiziert und autorisiert. Der Nutzer erhält nur Zugriff auf das, was er für seine aktuelle Aufgabe explizit benötigt (Least-Privilege-Prinzip). Dies reduziert die Angriffsfläche drastisch. Im Falle einer Kompromittierung eines Endgeräts kann sich ein Angreifer nicht seitlich im Netzwerk ausbreiten.

Zero Trust Netzwerkarchitektur für sicheren Remote-Zugriff visualisiert

Diese Architektur ist perfekt für hybride Umgebungen geeignet, da sie den Zugriff auf On-Premise- und Cloud-Anwendungen über eine einheitliche Sicherheitslogik steuert. Die steigende Relevanz dieses Konzepts ist unübersehbar: Laut einer aktuellen Marktstudie wünschen sich 60% der Unternehmen eine ZTNA-Integration in umfassende Security-Service-Edge-Plattformen (SSE). Für einen IT-Entscheider im Mittelstand bedeutet dies, bei der Planung der Infrastruktur nicht nur an Server und Speicher, sondern auch an eine moderne, flexible und vor allem sicherere Zugriffskontrolle zu denken, die über das klassische VPN hinausgeht.

Lastspitzen abfangen: Wie die Cloud verhindert, dass Ihr Server am Black Friday abstürzt

Es gibt Workloads, für die die Cloud-Architektur unbestreitbare, massive Vorteile bietet. Das Paradebeispiel sind Anwendungen mit stark schwankender oder unvorhersehbarer Last. Im On-Premise-Modell müssen Sie Ihre Serverkapazität für die absolute Spitzenlast auslegen, die vielleicht nur an wenigen Tagen im Jahr auftritt – etwa am Black Friday, bei einer Marketingkampagne oder während eines saisonalen Hochs. Den Rest des Jahres laufen diese teuren Ressourcen weit unter ihrer Kapazität und verursachen unnötige Kosten.

Hier spielt die Cloud ihre größte Stärke aus: Elastizität und Auto-Scaling. Cloud-Plattformen ermöglichen es, Rechenleistung, Speicher und Netzwerkbandbreite dynamisch und automatisiert an den tatsächlichen Bedarf anzupassen. Steigt die Zahl der Besucher auf Ihrem Online-Shop sprunghaft an, fahren Cloud-Services automatisch weitere virtuelle Server hoch, um die Last zu verteilen. Nimmt der Ansturm ab, werden die nicht mehr benötigten Ressourcen ebenso automatisch wieder abgeschaltet. Sie zahlen nur für die tatsächlich genutzte Kapazität – minutengenau.

Praxisbeispiel: Skalierung für saisonalen Handel

Ein deutscher Online-Händler für Weihnachtsdekoration verzeichnet 80% seines Jahresumsatzes zwischen Oktober und Dezember. Mit einer On-Premise-Lösung müsste er eine teure Server-Infrastruktur unterhalten, die 9 Monate im Jahr brachliegt. Durch die Nutzung von Cloud-Services kann er seine Webserver-Kapazitäten im vierten Quartal bedarfsgerecht und automatisch um das 10-fache erhöhen, um den Ansturm zu bewältigen. Nach Weihnachten skaliert das System wieder auf ein Minimum herunter. Die Investition in teure, ungenutzte Hardware entfällt vollständig, und die Performance bleibt auch während der Spitzenlast stabil.

Dieser Anwendungsfall zeigt exemplarisch, wie die Workload-Analyse zu klaren Entscheidungen führt. Für stark variable Lasten wie E-Commerce, Ticket-Verkaufssysteme oder Streaming-Events ist eine On-Premise-Lösung wirtschaftlich und technisch fast immer die unterlegene Wahl. Die Fähigkeit, Lastspitzen ohne Vorabinvestition abzufangen, ist ein direkter Wettbewerbsvorteil.

SAP oder Nischenlösung: Wie Sie die Software finden, die zu Ihren Prozessen passt

Die Entscheidung zwischen Cloud und On-Premise betrifft nicht nur die zugrundeliegende Infrastruktur (IaaS), sondern in noch größerem Maße die darauf laufende Software (SaaS, PaaS). Besonders bei unternehmenskritischen Anwendungen wie dem ERP-System stellt sich die Frage mit großer Dringlichkeit. Bleibt man beim etablierten On-Premise SAP-System oder wagt man den Schritt zu einer Cloud-Lösung wie SAP S/4HANA Cloud oder gar zu einem spezialisierten Nischenanbieter?

Hier muss die Workload-Analyse um eine Prozess-Analyse erweitert werden. Ein Standard-SAP-System, das über Jahre mit unzähligen individuellen Anpassungen (Customizing) an die spezifischen Unternehmensprozesse angepasst wurde, lässt sich oft nicht 1:1 in eine standardisierte Cloud-Software überführen. Der Versuch, dies zu tun, führt zu teuren und fehleranfälligen Integrationsprojekten. In solchen Fällen kann es strategisch sinnvoller sein, das Kern-ERP On-Premise zu belassen und es über Schnittstellen mit agilen Cloud-Anwendungen für Bereiche wie CRM oder HR zu verbinden (hybrider Ansatz).

Umgekehrt kann für ein Unternehmen mit weitgehend standardisierten Prozessen der Wechsel zu einer SaaS-Lösung enorme Vorteile bringen: keine Sorgen mehr um Updates, Wartung und Hardware. Gleichzeitig steigt jedoch die Abhängigkeit vom Anbieter (Vendor Lock-in). Preiserhöhungen, wie sie beispielsweise SAP für 2025 mit einer Steigerung der Wartungsgebühren angekündigt hat, müssen dann hingenommen werden. Die Wahl der richtigen Software-Strategie ist daher eine Abwägung zwischen der Flexibilität und den Kosten einer Cloud-Lösung und der Kontrolle und Stabilität einer On-Premise-Installation, die perfekt auf die eigenen Prozesse zugeschnitten ist.

Scannen und wegwerfen: Wann dürfen Sie das Papieroriginal wirklich vernichten?

Ein sehr spezifischer, aber für viele deutsche Unternehmen relevanter Workload ist die revisionssichere Archivierung von Geschäftsdokumenten. Die Verlockung, Papierberge durch Scannen zu digitalisieren und die Originale zu vernichten, ist groß. Doch die rechtlichen Hürden, insbesondere die „Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff“ (GoBD), sind hoch.

Das sogenannte ersetzende Scannen ist nur dann zulässig, wenn der gesamte Prozess in einer detaillierten Verfahrensdokumentation beschrieben ist. Diese muss lückenlos nachweisen, dass das digitale Abbild mit dem Original übereinstimmt, vor nachträglicher Veränderung geschützt ist und während der gesamten gesetzlichen Aufbewahrungsfrist lesbar bleibt. Hier stellt sich erneut die Frage: Cloud oder On-Premise? Ein On-Premise-Archivsystem mit WORM-Speichern (Write Once, Read Many) bietet die maximale Kontrolle über den gesamten Prozess und die Einhaltung der GoBD. Sie sind Herr über Hardware, Software und den physischen Speicherort.

Andererseits gibt es mittlerweile spezialisierte deutsche Cloud-Anbieter, die GoBD-zertifizierte Archivlösungen als Service anbieten. Der Vorteil liegt in den geringen Initialkosten und der unbegrenzten Skalierbarkeit. Der Nachteil ist die Abhängigkeit von einem Drittanbieter, dem man die Einhaltung der strengen rechtlichen Vorgaben anvertrauen muss. Die Entscheidung hängt vom Risikoprofil des Unternehmens ab. Für Standarddokumente wie Eingangsrechnungen kann eine zertifizierte Cloud-Lösung effizient sein. Für hochsensible Verträge oder Patente könnte ein On-Premise-WORM-Archiv weiterhin die sicherere Wahl darstellen.

Das Wichtigste in Kürze

  • Risiko vor Kosten: Die Entscheidung für oder gegen die Cloud ist primär eine Frage des strategischen Risikomanagements (DSGVO, Sicherheit, Vendor Lock-in), nicht nur der Kosten.
  • Workload-zentrierter Ansatz: Analysieren Sie jeden Geschäftsprozess einzeln, um seinen optimalen Betriebsort zu finden. Ein hybrides Modell ist oft die beste Lösung.
  • Digitale Souveränität: Für sensible Daten sind europäische oder deutsche Cloud-Anbieter, die nicht dem US CLOUD Act unterliegen, aus Compliance-Sicht fast immer die sicherere Wahl.

Wie nutzen Sie Big Data als KMU, ohne ein Team von Data Scientists einzustellen?

Nachdem wir die Risiken und grundlegenden Workloads betrachtet haben, werfen wir einen Blick auf die Chancen. Einer der größten Vorteile von Cloud-Plattformen liegt in der Bereitstellung hoch-skalierbarer Dienste für Datenanalyse und maschinelles Lernen. Viele Mittelständler glauben, dass die Nutzung von Big Data die Einstellung eines teuren Teams von Data Scientists erfordert. Doch die Cloud demokratisiert den Zugang zu diesen Technologien.

Moderne Cloud-Services bieten fertige Analyse-Tools, KI-Modelle und „Serverless“-Architekturen, die es auch kleineren IT-Teams ermöglichen, wertvolle Erkenntnisse aus ihren Geschäftsdaten zu gewinnen – ohne tiefes Spezialwissen in der Cluster-Administration. Hier kommen Konzepte wie DataOps ins Spiel. Ähnlich wie DevOps die Softwareentwicklung automatisiert, zielt DataOps darauf ab, den gesamten Lebenszyklus von Daten – von der Sammlung über die Aufbereitung bis zur Analyse – zu automatisieren und zu beschleunigen. Laut einer IDC-Analyse, die von All-about-Security zitiert wird, nutzen bereits 54 Prozent der Unternehmen DataOps, um agiler auf Marktanforderungen reagieren zu können.

Kombiniert mit FinOps zur Kostenkontrolle können KMU so gezielt Cloud-native Dienste für innovative Projekte nutzen. Beispielsweise kann ein produzierendes Unternehmen Sensordaten aus seinen Maschinen in der Cloud sammeln und mit einem vorgefertigten Machine-Learning-Service analysieren, um vorausschauende Wartung (Predictive Maintenance) zu betreiben. Die Investition beschränkt sich auf die Nutzungsgebühren des Dienstes, nicht auf den Aufbau einer kompletten Big-Data-Infrastruktur. Dies ist ein perfektes Beispiel für einen innovativen Workload, der ideal in der Cloud angesiedelt ist, während das Kern-ERP sicher On-Premise bleibt.

Die strategische Nutzung solcher Cloud-Dienste ermöglicht es, innovativ zu sein und Wettbewerbsvorteile zu schaffen, ohne die Kontrolle über das Kerngeschäft zu verlieren.

Der Schlüssel zu einer erfolgreichen IT-Zukunft liegt nicht in einer dogmatischen Entscheidung für eine Technologie, sondern in der Fähigkeit, die richtige Technologie für den richtigen Zweck auszuwählen. Beginnen Sie noch heute damit, Ihre Geschäftsprozesse durch die Brille der Workload-Analyse zu betrachten und eine flexible, sichere und souveräne IT-Architektur für morgen zu entwerfen.

Häufige Fragen zu Cloud-Archivierung und IT-Strategie

Welche Cloud-Lösung eignet sich für revisionssichere Archivierung?

Deutsche Cloud-Anbieter mit GoBD-Zertifizierung oder On-Premise-Lösungen mit WORM-Speichern bieten die nötige Rechtssicherheit.

Was muss die Verfahrensdokumentation enthalten?

Die Dokumentation muss den gesamten Scan-Prozess, verwendete Hard- und Software, Verantwortlichkeiten und Qualitätssicherungsmaßnahmen beschreiben.

Geschrieben von Anja Anja Schneider, IT-Unternehmensberaterin und Agile Coach. Expertin für Prozessdigitalisierung, ERP-Systeme und Datenschutz im Mittelstand. Zertifizierte Scrum Masterin und Datenschutzbeauftragte.