Was suchen Sie?

Managed Kubernetes

Die zukunftsweisende Container Orchestrierung

Container in der IT - als bekannteste Vertreter gelten die Kubernetes Container der Google-Open-Source-Plattform. Diese bieten eine Lösung für ein im IT-Betrieb allzu häufiges Problem: Software zuverlässig und standardisiert zu betreiben – unabhängig vom Bereitstellungziel. Vor Containern waren virtuelle Maschinen (VMs) die vornehmlich eingesetzte Methode, um viele isolierte Anwendungen auf einem einzigen Server auszuführen. Für VMs wird ein Hypervisor-Host, der die Ressourcen abstrahiert, benötigt.

30 Tage kostenlos Container managen!

Container jedoch brauchen kein eigenes Betriebssystem. Die Container Engine stellt den Zugriff auf den Kernel des Host-Betriebssystems (Host-OS) sicher. In den Containern werden voneinander unabhängige Microservices zur Verfügung gestellt. Jeder einzelne Service kann getrennt eingerichtet, implementiert, skaliert und erneuert werden. Container werden daher zur digitalen Transformation dringend benötigt und sind schneller, portabler und einfacher im Updateprozess als VMs.

Was sind Vorteile des Containereinsatzes?

  • Geschwindigkeit:  Anders als bei virtuellen Maschinen, die normalerweise mehrere Minuten für den Start benötigen, brauchen Container nicht auf den Betriebssystemstart zu warten und starten in wenigen Sekunden.
  • DevOps:  Die Geschwindigkeit, der schmale Footprint und die Ressourceneffizienz machen Container ideal für den Einsatz in automatisierten Entwicklungsumgebungen und ermöglichen eine Optimierung der CI/CD Pipeline.
  • Verfügbarkeit:  Container verpacken nur die App und ihre Abhängigkeiten. Das ermöglicht einen einfachen Betrieb auf unterschiedlichsten Plattformen.
  • Skalierbarkeit:  Container sind in der Regel klein, weil sie kein separates Betriebssystem, wie virtuelle Maschinen, benötigen und skalieren dadurch beliebig.
  • Konsistenz:  Da Container alle Abhängigkeiten und Konfigurationen intern enthalten, stellen sie sicher, dass Entwickler in einer konsistenten Umgebung arbeiten können, unabhängig davon, wo die Container bereitgestellt werden.

Das Open-Source-Angebot Kubernetes von Google

Was sind K8s? Kubernetes Infrastruktur einfach erklärt

Bei Kubernetes (Abkürzung k8s) handelt es sich um eine Orchestrierungssoftware. Mit dieser können Softwareentwickler und IT-Administratoren Deployment, Skalierung, Betrieb und Administration von Containerumgebungen organisieren, managen, überwachen und automatisieren. Diese Managementumgebung koordiniert die Computer-, Netzwerk- und Speicherinfrastruktur. Das Ganze geschieht im Namen der Benutzer-Workloads.

K8s ist außerdem eine portable, erweiterbare Open-Source-Plattform und hat ein großes, schnell wachsendes Ökosystem. Kubernetes Dienstleistungen, Support und Tools sind stark verbreitet. Es können verschiedene IT-Infrastrukturen genutzt werden, z.B. lokale Hoster, AWS oder Azure. 2014 hat Google das Kubernetes-Projekt für jeden freizugänglich zur Verfügung gestellt, nachdem der Tech-Riese über ein Jahrzehnt Erfahrungen beim Ausführen von Workloads in der großskalierten Produktion gesammelt hat. Ein Container Cluster Management wird also speziell bei komplexeren Projekten mit einer großen Anzahl von Containern, die über mehrere Server oder virtuelle Maschinen verteilt sind, zur Notwendigkeit.

In einer Ära, in der Agilität und Skalierbarkeit von Anwendungen eine entscheidende Rolle bekommen hat sind Containerisierung und Kubernetes die Gamechanger geworden. Wir zeigen dir, wie Kubernetes und Containerisierung das Verwalten bereitstellt und den Betrieb von Anwendung revolutioniert.

Insights für die Google Kubernetes Architecture

Pods: Pods sind die kleinste Einheit, die bei Kubernetes deploybar ist. Sie kapseln einen oder mehrere Container ein, wobei meist ein Pod einen Container beherbergt. In diesem läuft eine Applikation bzw. ein Microservice. Wenn Pods jedoch mehrere Container enthalten, dann oft aus dem Grund, dass die Container auf dieselben Ressourcen zugreifen müssen. Diese teilen sich dann innerhalb des Pods Host, Storage und Netzwerk.
Node und Cluster: Pods laufen auf Nodes, also virtuellen oder physischen Maschinen, die wiederum in Cluster gruppiert sind. Jeder Node besitzt die Dienste, die für den Betrieb von Pods benötigt werden. Ein Cluster besitzt Kontrolleinheiten namens Kubernetes Master, die für das Management der Nodes verantwortlich sind.
Projekt Borg und die Kubernetes Geschichte:  Containerisierte Workloads

bestehen nicht erst seit gestern. Seit mehr als einem Jahrzehnt setzt Google diese in der internen Produktion ein. Egal, ob es sich um Service-Jobs wie Web-Frontends, Infrastruktursysteme wie Bigtable oder Batch-Frameworks wie MapReduce handelt – Google nutzt größtenteils Container-Technologie. Zentraler Dreh- und Angelpunkt der internen Google Projekte: Borg. Bei diesem Projekt Borg handelte es sich um ein Cluster-Management-System von Google selbst. Heute wissen wir: Kubernetes geht direkt auf Borg zurück. Und: Viele der Google-Entwickler, die heute an Kubernetes arbeiten, waren früher an Borg beteiligt. Vier zentrale Kubernetes Funktionen sind aus dem Projekt entstanden: Pods, Services, Labels und IP-per-Pods. Durch die Veröffentlichung der Funktionalitäten des Cluster Managers entstanden nicht nur Open-Source-Projekte im Rahmen von Kubernetes, sondern auch öffentlich zugängliche gehostete Dienste über das Google Container Engine. Google gibt damit Kubernetes an die Community “CNCF” zurück und möchte zeitgleich die Containertechnologie mithilfe von Schwarmintelligenz weitervoranbringen.

Managed Kubernetes von Medialine

Warum reicht Kubernetes von Google nicht aus?

Zwar vereinfacht Kubernetes den Umgang mit einer  größeren Container- und Rechnerlandschaft, ein erfolgreicher Einsatz erfordert jedoch vertiefte Kenntnisse in die Kubernetes-Technologien. Die Implementierung und Pflege, das permanente Updaten und Monitoren sind oftmals sehr aufwändig und komplex. 

Mit einer containerzentrierten Managementumgebung wie der von Medialine werden Computer-, Netzwerk- und Speicherinfrastruktur vereinfacht koordiniert. Dies bietet einen Großteil der Einfachheit von Platform as a Service (PaaS) gepaart mit der Flexibilität von Infrastructure as a Service (IaaS). Um Kubernetes produktiv und effizient betreiben zu können, ist ein kompetentes Management zwingend notwendig.Infrastruktur von einem Managed Kubernetes System

So können Sie Ihre Container managen 

Mit Managed Kubernetes auf VMware Tanzu ermöglicht Medialine ein vollautomatisiertes Setup von Kubernetes Clustern - mit der Enterprise Class Technologie von VMware Tanzu. So lassen sich beispielsweise mehrere Cluster für Testumgebungen einfach und in kürzester Zeit einrichten und bei Bedarf wieder löschen. Wir bieten Ihnen ein Kubernetes Setup so einfach und kompatibel wie möglich mit individueller Konfiguration für Ihre Produktionsumgebung.

Kompatible VMware Lösungen

Hochperformante Workloads durch Auto-Scaling

Einheitlicher und effizienter Plattformaufbau für Container und VMs mit individueller Konfiguration und optionalen Plug-ins

Integrated Persistent Storage auf hochverfügbarer und skalierbarer Plattform

Deutsches Rechenzentrum und EU-DSGVO Datenschutz

Auf Wunsch georedundanter Datacenter-Aufbau über mehrere Standorte

Entlastung Ihrer DevOps Teams

Flexibel und kundenindividuell

Support mit dedizierten Ansprechpartnern

Unser Alleinstellungsmerkmal: Die CompanyCloud

Über das SelfService Portal der CompanyCloud geschieht eine einfache Verwaltung des Managed Kubernetes Service. Zudem können unkompliziert eigene Systeme durch SaaS Applikationen aus der CompanyCloud integriert werden. 

Wir schlagen für Sie die Brücke zwischen Legacy VMware Infrastrukturen und containerisierten Workloads. Denn wir bieten durch hochklassige Technologien eine echte Multi-Tenancy, wodurch Sie Ressourcen, die Sie in unserer CompanyCloud, bei sich onPrem oder bei einem Hyperscaler hosten, smart in unsere Kubernetes Struktur integrieren und einsehen können. Sie erhalten nicht nur ein eigenständiges, dediziertes Kubernetes Cluster statt einer Shared Cluster Struktur, sie können im Self Service Portal alle Ihre Kubernetes Cluster, verbrauchten Ressourcen, Arbeitsspeicher und Storage einsehen und eigenständig konfigurieren. CPU pro Node, CPU-Typ, RAM pro Node, Storage Size pro Node, Storage Type und Storage Performanceklasse können für Worker und Master frei gewählt werden – Das heißt Sie selbst passen alle Eigenschaften Ihres Kubernetes Cluster an Ihre Bedürfnisse an.

Kubernetes as a Service Grafik

Kubernetes Monitoring und Kubernetes Hosting mit VMware Tanzu 

Tanzu ist ein Produkt der VMware-Familie und gliedert sich nahtlos in das gesamte Ökosystem des Segmentführers ein. Querintegration und Adaption von Team- wie Kundenseite ist kein Problem und dadurch ein großer Vorteil. Das bedeutet, die klassischen Infrastrukturen von VMware können weiterhin verwendet werden. Unsere Medialine Experten verwenden den Tanzu Kubernetes Grid und die Container Service Extension (CSE). Extra designt für unsere Multicloud bieten wir das Produkt Managed Kubernetes auf dem VMware Cloud Director mit Multi-Tenancy als Kernstück, als Opensource Kubernetes as a Service an.

Tanzu umfasst ein ganzes Portfolio von Produkten und Diensten, teils von VMware selbst entwickelt, teils aus Akquisitionen stammend. Mit ihnen können Unternehmen ihre Applikationen von der Entwicklung (Build) über die Verwaltung (Manage) bis hin zum Betrieb (Run) selbst kontrollieren.

Tanzu bietet:

  • Konsolidierung, Standardisierung und Optimierung von Container und VMs

  • Modernisierung traditioneller Apps

  • Entwicklung hochwertigerer Software

  • Schnellere Release-Zyklen durch beschleunigte Prozesse

Besonders interessant ist das Produkt für alle, für die die Arbeit mit Kubernetes zum Arbeitsalltag gehört. Überall dort, wo Entwicklungen stattfinden und Softwareprodukte von eigenen Entwicklern erdacht werden, wird Tanzu zu Erleichterungen und Optimierungen von Arbeitsabläufen beitragen. Der Mittelstand, der seine Entwickler vom Part der Infrastrukturentwicklung entlasten will, sollte auf Kubernetes Container setzen.

Q&A

Nachdem zunächst virtuelle Maschinen (VMs) ein großer Sprung in der Weiterentwicklung von Prozessen waren, stellen Container nun den nächsten Paradigmenwechsel dar. Container ermöglichen es, Anwendungen von ihrer Laufzeitumgebung zu trennen. Sie fordern kein eigenes Betriebssystem, sondern verwenden das System, auf dem sie installiert sind.

Die Virtualisierung erfolgt somit ohne einen Hypervisor. Innerhalb einer Betriebssystem-Installation können mehrere voneinander isolierte Container betrieben werden. Container beinhalten sowohl die benötigten Betriebssystem-Komponenten als auch Anwendungen. In den Containern werden einzeln lauffähige, voneinander unabhängige Microservices zur Verfügung gestellt. Jeder einzelne Service kann getrennt eingerichtet, implementiert, skaliert und erneuert werden.

Container können sehr schnell bereitgestellt, gestartet und gestoppt werden. Werden für einen Dienst mehr Kapazitäten benötigt, werden neue Container zur Verfügung gestellt. Umgekehrt können Container sofort gelöscht werden, wenn diese nicht mehr benötigt werden.

Die Bereitstellung, Skalierung, der Lastausgleich und die Vernetzung von Containern ist komplex und aufwändig. Eine Container Orchestrierung automatisiert diese Vorgänge und bietet außerdem viele Möglichkeiten zur Anbindung weiterer Schnittstellen und zentraler Funktionen.

Bei Kubernetes (Abkürzung K8s) handelt es sich um eine von Google seit 2014 bereitgestellte Open-Source-Orchestrierungssoftware. Mit dieser können Softwareentwickler und IT-Administratoren Deployment, Skalierung, Betrieb und Administration von Containerumgebungen organisieren, managen, überwachen und automatisieren.

Managed Kubernetes wird meist als Managed Service oder Kubernetes as a Service angeboten und auf einer eigenen Cloud Plattform zur Verfügung gestellt. Hierzu zählt außerdem die Bereitstellung, Administration und Aktualisierung der Kubernetes Container Infrastruktur sowie der Betrieb der Systemumgebung (Nodes).

Dadurch müssen sich Entwickler nur noch um die Applikationen selbst, die in den Nodes laufen, kümmern. So werden Kosten und interne Ressourcen eingespart - damit wird die Konzentration aufs Kerngeschäft erleichtert.

Docker ist ein gesamtes Tech-Stack, nur ein Teil davon ist „containerd“. Dieser Teil verkörpert eine eigene High-Level-Container-Laufzeit (Runtime). Im Hinblick auf Kubernetes-Cluster wird Docker mithilfe der Container-Runtime für das Abrufen und Ausführen von Container-Images verwendet. Docker ist eine beliebte Wahl für diese Runtime (andere gängige Optionen sind containerd und CRI-O). Docker wurde jedoch nicht für die Einbettung in Kubernetes entwickelt. Dies führt zu Problemen.

Container werden in sogenannte Docker-Images gepackt und in einer Image Registry, wie z.B. Harbor, gepflegt und abrufbar gemacht. Die Kubernetes Knoten wiederum beinhalten eine Container-Engine (Runtime), um die Container auszuführen (siehe Abbildung).

Docker kann seit Ende 2020 nicht mehr als Container Runtime (Engine) in Kubernetes genutzt werden, da das jüngste Update von Kubernetes dies ausgeklammert hat. Was daraus resultiert ist, dass Managed Kubernetes-Services wie GKE, EKS, oder AKS in Zukunft nicht mehr für die Worker-Nodes funktionieren. Wenn Ihr Service also Anpassungen für Ihre Nodes beinhaltet, müssen Sie diese möglicherweise basierend auf Ihren Umgebungs- und Laufzeitanforderungen aktualisieren.

Definitiv ja. Kubernetes hat auf seinem Blog Entwarnung gegeben. Docker Images werden weiterhin unterstützt, weil sie mit OCI (OCI = Open Container Initiative) kompatibel sind, also OCI-Compliant sind. Das bedeutet Ihre Docker Images können nach wie vor in Kubernetes betrieben werden. Grund hierfür ist folgender: Das Image, das Docker erzeugt, ist nicht direkt ein Docker-spezifisches Image, sondern ein OCI-Image. Und jedes OCI-konforme Image, unabhängig davon, mit welchem Tool erstellt, sieht für Kubernetes gleich aus. Sowohl containerd (also ein Teil von Docker) als auch CRI-O können diese Images abrufen und ausführen.

Docker-Images

Kubernetes Workflow Grafik

Kontaktformular

Sie interessieren sich für unser Managed Kubernetes Angebot? Kontaktieren Sie uns gerne über das Kontaktformular.

Downloads

Alles Wichtige auf einen Blick
Via Telefon
+49 (6751) 85378-0
Via E-Mail
Online Anfrage
Service Helpdesk
Support-Bereich
Login für Kunden
Cloud Status prüfen