Die KI-Debatte dreht sich meistens um die großen Cloud-Anbieter — AWS, Azure, Google. Dabei wächst leise ein anderes Segment: On-premises-KI für Unternehmen, die ihre Daten nicht in die Cloud geben wollen oder dürfen. Auf seiner .NEXT-Konferenz hat Nutanix eine neue KI-Infrastrukturplattform vorgestellt, die vollständig offline betrieben werden kann — ein Detail, das für regulierte Branchen in Deutschland erhebliche Bedeutung hat.
Was Nutanix auf der .NEXT angekündigt hat
Nutanix hat auf seiner .NEXT-Konferenz mehrere neue KI-fokussierte Produkte vorgestellt. Im Mittelpunkt steht eine Agentic-AI-Plattform: ein System, das KI-Infrastruktur, Plattformdienste und das Management von virtuellen Maschinen, Containern und GPU-Workloads in einer einheitlichen Umgebung vereint. Die Besonderheit gegenüber reinen Cloud-Lösungen: Das gesamte System läuft on-premises und kann vollständig ohne Internetverbindung betrieben werden.
Konkrete Neuerungen umfassen Data Lens 2.0 mit einem vollständig offline fähigen Air-Gapped-Modus, der für regulierte Branchen wie Krankenhäuser, Banken oder Behörden konzipiert ist. Unified Storage 5.3 bietet RDMA-Unterstützung zur Latenzreduktion bei KI-Workloads sowie Smart Tiering für hybride Cloud-Szenarien. Cloud Manager 2.0 ermöglicht Multi-Site-Verwaltung mit On-Premises-FinOps und AIOps-Funktionen. Für spezialisierte Cloud-Anbieter (Neoclouds) wird ein Multitenancy-Framework mit token-basierter Kostenkontrolle für LLM-Inferenz eingeführt. Die vollständige Verfügbarkeit ist für das zweite Halbjahr 2026 geplant.
Warum das für den Mittelstand zählt
„On-premises" klingt nach Enterprise-IT und großen Budgets. Tatsächlich ist der Ansatz für eine bestimmte Gruppe von Mittelständlern besonders relevant: Unternehmen in regulierten Branchen, die mit sensiblen Daten arbeiten.
Wer in Deutschland als Arztpraxis, Pflegedienst, Rechtsanwaltskanzlei, Steuerberater oder Produktionsunternehmen mit Betriebsgeheimnissen KI einsetzen will, steht vor einer grundsätzlichen Frage: Dürfen meine Daten das Haus verlassen? In vielen Fällen lautet die ehrliche Antwort: nein, oder nur unter engen rechtlichen Bedingungen.
Cloud-basierte KI-Dienste erfordern in der Regel eine Datenverarbeitungsvereinbarung nach Art. 28 DSGVO und eine klare Einordnung, ob Kundendaten in einem Drittland außerhalb der EU verarbeitet werden. On-premises-KI umgeht dieses Problem strukturell — keine Daten verlassen das interne Netzwerk.
„Wer KI-Modelle lokal betreibt, hat ein Problem weniger: Die Frage, wo seine Daten verarbeitet werden, stellt sich schlicht nicht."
Use-Cases aus der Praxis
Gesundheit und Pflege
Patientendaten fallen unter besondere Schutzpflichten — DSGVO Art. 9, Berufsgeheimnis, Krankenhausgesetze der Länder. KI-gestützte Dokumentenverarbeitung, Diagnoseunterstützung oder die Auswertung von Patientenakten sind on-premises deutlich einfacher rechtssicher zu gestalten als in der Cloud. Die Air-Gapped-Funktionalität von Data Lens 2.0 ist genau für diese Szenarien gebaut — vollständig netzgetrennt, keine externen Anfragen, keine Abhängigkeiten von Anbieterverfügbarkeit.
Produktion und Maschinendaten
Maschinendaten aus der Fertigung enthalten oft Betriebsgeheimnisse oder sind Grundlage für Patente und Produktionsvorteile. On-premises KI-Analyse — etwa für vorausschauende Wartung oder Qualitätskontrolle — hält diese Daten im Unternehmen und schließt das Risiko ungewollter Weitergabe strukturell aus. ATLAS Consulting begleitet derzeit erste Projekte in diesem Bereich und sieht hier eine der stärksten Wachstumskategorien für 2026.
Finanzdienstleister und berufsrechtlich gebundene Berufe
Das Berufsgeheimnis nach § 203 StGB gilt für Steuerberater, Wirtschaftsprüfer und Rechtsanwälte. Mandantendaten an externe KI-Server zu übermitteln, ist rechtlich komplex — selbst mit Datenverarbeitungsvertrag. Lokal betriebene KI-Assistenten für Dokumentenanalyse oder Recherche sind für diese Berufsgruppe die rechtlich sauberere Lösung.
tips_and_updatesAir-Gapped KI: Was das konkret bedeutet „Air-Gapped" bezeichnet eine Umgebung, die physisch vom öffentlichen Netz getrennt ist — kein ausgehender Datenverkehr, keine Cloud-Abhängigkeit. KI-Modelle laufen vollständig lokal oder im privaten Rechenzentrum. Kleinere Sprachmodelle (bis 13 Milliarden Parameter) laufen bereits auf handelsüblicher Server-Hardware. Größere Modelle erfordern dedizierte GPU-Kapazität. Anbieter wie Nutanix, IBM oder deutsche Cloud-Anbieter wie IONOS bieten entsprechende Umgebungen an.
Kostenfrage und Implementierungsaufwand
On-premises KI ist nicht billig — aber der Vergleich ist komplizierter als ein einfacher Preisvergleich. Cloud-KI hat variable Kosten: je mehr Abfragen, desto höher die Rechnung. On-premises hat höhere Fixkosten für Hardware und Einrichtung, aber deutlich niedrigere variable Kosten im laufenden Betrieb.
Für Nutanix-Umgebungen wird token-basierte Kostenkontrolle für LLM-Inferenz eingeführt: Unternehmen zahlen intern pro verarbeitetes Token — ähnlich wie bei Cloud-Diensten, aber abgerechnet innerhalb des eigenen Systems. Das ermöglicht Kostentransparenz und Budgetplanung ohne Überraschungen auf der Jahresabrechnung.
Der Einstieg erfordert Vorlaufzeit: Typische Implementierungszeiten für On-premises-KI-Infrastruktur liegen zwischen vier und zwölf Wochen, je nach Umgebung und Modellgröße. Für Unternehmen ohne eigene GPU-Infrastruktur ist das eine Investition — die sich aber durch wegfallende Cloud-Abhängigkeit und vereinfachte DSGVO-Dokumentation über die Zeit amortisiert.
| Kriterium | Cloud-KI | On-premises KI |
| Einrichtungskosten | Niedrig | Mittel bis hoch |
| Laufende Kosten | Variabel (nutzungsabhängig) | Niedrig bis mittel (Fixkosten) |
| Datenschutz | Erfordert DPA + Länder-Prüfung | Strukturell einfacher |
| Implementierungszeit | Sofort verfügbar | 4 bis 12 Wochen Vorlauf |
| Geeignet für | Allgemeiner Einsatz, flexible Teams | Regulierte Branchen, sensible Daten |
Fazit
Nutanix' Ankündigung ist ein weiteres Signal: On-premises KI ist kein Nischenprodukt mehr. Die Air-Gapped-Funktionen von Data Lens 2.0 und die token-basierte Kostenkontrolle adressieren zwei der häufigsten Einwände gegen lokale KI-Infrastruktur — mangelnde Kostentransparenz und fehlende Offline-Fähigkeit. Für regulierte Mittelständler in Gesundheit, Recht und Produktion lohnt es sich, diesen Ansatz 2026 gezielt zu evaluieren, auch wenn die vollständige Verfügbarkeit erst im zweiten Halbjahr kommt.
Wer bereits heute plant, sollte die Entscheidung Cloud versus On-premises nicht allein nach Kosten treffen, sondern auch nach Datenschutzaufwand und langfristiger Unabhängigkeit von Anbieterpreisen. ATLAS Consulting unterstützt Unternehmen bei der strukturierten Entscheidung zwischen Cloud-KI und On-premises-Modellen — inklusive Datenschutz-Folgenabschätzung und Kostenvergleich für konkrete Anwendungsfälle.
A
ATLAS Consulting Redaktion
Wir kuratieren jede Woche die wichtigsten KI-News für Entscheider im deutschen Mittelstand — ohne Hype, immer auf Deutsch.
Diese Technologie in Ihrem Unternehmen nutzen?
ATLAS Consulting begleitet Sie vom ersten Use-Case bis zur produktiven Integration — ohne Hype, ohne Blackbox, mit klaren Zahlen.
The AI debate mostly revolves around the big cloud providers - AWS, Azure, Google. Meanwhile, another segment is quietly growing: on-premises AI for companies that don't want to - or aren't allowed to - put their data in the cloud. At its .NEXT conference, Nutanix unveiled a new AI infrastructure platform that can run fully offline - a detail of considerable importance for regulated industries in Germany.
What Nutanix announced at .NEXT
At its .NEXT conference, Nutanix introduced several new AI-focused products. At the center is an agentic AI platform: a system that unifies AI infrastructure, platform services, and the management of virtual machines, containers, and GPU workloads in a single environment. The key difference from pure cloud solutions: the entire system runs on-premises and can operate fully without an internet connection.
Concrete innovations include Data Lens 2.0 with a fully offline-capable air-gapped mode designed for regulated industries such as hospitals, banks, and government agencies. Unified Storage 5.3 offers RDMA support for latency reduction in AI workloads as well as smart tiering for hybrid cloud scenarios. Cloud Manager 2.0 enables multi-site management with on-premises FinOps and AIOps capabilities. For specialized cloud providers (neoclouds), a multitenancy framework with token-based cost control for LLM inference is being introduced. Full availability is planned for the second half of 2026.
Why this matters for SMEs
"On-premises" sounds like enterprise IT and big budgets. In reality, the approach is particularly relevant for a specific group of SMEs: companies in regulated industries that work with sensitive data.
Anyone in Germany operating as a medical practice, care service, law firm, tax consultancy, or production company with trade secrets who wants to use AI faces a fundamental question: am I allowed to let my data leave the building? In many cases the honest answer is: no, or only under strict legal conditions.
Cloud-based AI services generally require a data processing agreement under Art. 28 GDPR and a clear classification of whether customer data is processed in a third country outside the EU. On-premises AI structurally avoids this problem - no data leaves the internal network.
"Anyone running AI models locally has one less problem: the question of where their data is processed simply doesn't arise."
Use cases from practice
Health care and nursing
Patient data is subject to special protection obligations - GDPR Art. 9, professional confidentiality, state hospital laws. AI-supported document processing, diagnostic support, or analysis of patient records is significantly easier to implement in a legally compliant way on-premises than in the cloud. The air-gapped functionality of Data Lens 2.0 is built exactly for these scenarios - fully network-isolated, no external requests, no dependencies on provider availability.
Manufacturing and machine data
Machine data from manufacturing often contains trade secrets or forms the basis for patents and production advantages. On-premises AI analysis - for instance for predictive maintenance or quality control - keeps this data inside the company and structurally eliminates the risk of unwanted disclosure. ATLAS Consulting is currently accompanying early projects in this area and sees this as one of the strongest growth categories for 2026.
Financial services and professions bound by confidentiality
Professional confidentiality under section 203 of the German Criminal Code applies to tax advisors, auditors, and lawyers. Transmitting client data to external AI servers is legally complex - even with a data processing agreement. Locally operated AI assistants for document analysis or research are the cleaner legal solution for this professional group.
tips_and_updatesAir-gapped AI: what this specifically means "Air-gapped" describes an environment that is physically separated from the public network - no outbound traffic, no cloud dependency. AI models run entirely locally or in the private data center. Smaller language models (up to 13 billion parameters) already run on standard server hardware. Larger models require dedicated GPU capacity. Providers such as Nutanix, IBM, or German cloud providers like IONOS offer appropriate environments.
Cost and implementation effort
On-premises AI is not cheap - but the comparison is more complex than a simple price comparison. Cloud AI has variable costs: the more queries, the higher the bill. On-premises has higher fixed costs for hardware and setup, but significantly lower variable costs in ongoing operation.
For Nutanix environments, token-based cost control for LLM inference is being introduced: companies pay internally per processed token - similar to cloud services, but billed within their own system. This enables cost transparency and budget planning without surprises on the annual invoice.
Getting started requires lead time: typical implementation times for on-premises AI infrastructure range between four and twelve weeks, depending on the environment and model size. For companies without their own GPU infrastructure, this is an investment - but one that amortizes over time through eliminated cloud dependencies and simplified GDPR documentation.
| Criterion | Cloud AI | On-premises AI |
| Setup costs | Low | Medium to high |
| Ongoing costs | Variable (usage-based) | Low to medium (fixed costs) |
| Data protection | Requires DPA + country review | Structurally easier |
| Implementation time | Immediately available | 4 to 12 weeks lead time |
| Suitable for | General use, flexible teams | Regulated industries, sensitive data |
Conclusion
Nutanix's announcement is another signal: on-premises AI is no longer a niche product. The air-gapped features of Data Lens 2.0 and token-based cost control address two of the most common objections to local AI infrastructure - lack of cost transparency and missing offline capability. For regulated SMEs in healthcare, law, and manufacturing, it's worth specifically evaluating this approach in 2026, even though full availability won't come until the second half of the year.
Anyone planning today should not decide between cloud and on-premises based on cost alone, but also on data protection effort and long-term independence from provider pricing. ATLAS Consulting supports companies in structuring the decision between cloud AI and on-premises models - including data protection impact assessments and cost comparisons for concrete use cases.
A
ATLAS Consulting Editorial
Every week we curate the most important AI news for decision makers in German SMEs - without hype, always to the point.
Want to use this technology in your company?
ATLAS Consulting guides you from the first use case to productive integration - without hype, without black boxes, with clear numbers.