Amsterdam
Barbara Strozzilaan 1011083 HN Amsterdam
Nederland+31 10 307 7131info@kruso.nl
Cloud-native AI benut technologieën zoals containers, microservices en Kubernetes om AI-systemen te bouwen en te beheren. In de cloud-native wereld gebruikt het gemeenschapsinstrumenten om schaalbare en efficiënte AI-workflows te creëren.
Kubernetes speelt hierbij een belangrijke rol en automatiseert de training, inzet en levering van machine learning-modellen. Tools zoals Kubeflow, MLflow en Ray ondersteunen deze processen.
Deze aanpak biedt je wendbaarheid, schaalbaarheid en gemakkelijker infrastructuurbeheer voor complexe AI-workloads.
Cloud-native AI-systemen bestaan meestal uit meerdere geïntegreerde open-source tools die verschillende aspecten van de levenscyclus van machine learning behandelen, van dataverwerking en modeltraining tot het serveren en monitoren.
Kubeflow: Kubeflow is een cloud-native platform voor het uitvoeren van machine learning workflows op Kubernetes. Het richt zich op vereenvoudigde implementatie en schaalbaarheid van ML-modellen en vormt een centrale component in veel cloud-native AI-stacks.
Kubeflow Pipelines: Een tool voor het bouwen en beheren van volledige ML-workflows, waarmee gebruikers complexe pipelines kunnen definiëren voor taken zoals datapreparatie, training en evaluatie, met mogelijkheden voor versiebeheer en betrouwbare herhaling.
KFServing (KServe): Een component voor het serveren van ML-modellen op Kubernetes met serverloze inferentiepatronen. KFServing biedt geavanceerde mogelijkheden zoals autoschaling, GPU-versnelling en multi-framework deployment (bijv. TensorFlow, PyTorch, XGBoost).
Ray Serve: Ray Serve is een schaalbare bibliotheek voor model-serving gebouwd op het Ray gedistribueerde rekentraamwerk. Het biedt flexibele inzet van ML-modellen met functies als verkeerssplitsing, dynamische schaling en Python-native API's, ideaal voor het serveren van meerdere modellen of realtime inferentie op grote schaal.
NVIDIA GPU Operator: De NVIDIA GPU Operator automatiseert het beheer van alle componenten die nodig zijn om GPU-versnelde workloads op Kubernetes uit te voeren. Het verzorgt driver-installatie, monitoring en upgrades, wat het gebruik van NVIDIA GPU’s vergemakkelijkt voor intensieve training- en inferentietaken in AI-workflows.
Istio en Prometheus:
Istio: Een service mesh die verkeersbeheer, beveiliging en observability biedt voor microservices—waaronder diensten die AI-modellen serveren. In Cloud-native AI beheert en monitort Istio interacties tussen diensten zoals model-API's, databases en frontends.
Prometheus: Een open-source monitoring-systeem dat metrics verzamelt en opvraagt van Kubernetes-workloads. Het wordt veel gebruikt in Cloud-native AI-opstellingen voor monitoring van trainingsprestaties, resourcegebruik en modelinferentie-latentie, wat betere observability en systeemgezondheid mogelijk maakt.
Cloud-native AI onderscheidt zich omdat het consistentie, automatisering en intelligent middelenbeheer biedt bij de ontwikkeling en implementatie van AI-systemen. Een kernkracht is het vermogen om zowel applicaties als machine learning-modellen via één controlepaneel te beheren, wat de bedrijfsvoering stroomlijnt en complexiteit voor teams vermindert.
Een belangrijk kenmerk is intelligente GPU-autoschaling. In plaats van kostbare GPU-instanties continu te laten draaien, kunnen cloud-native AI-platformen detecteren wanneer GPU-bronnen nodig zijn, zoals tijdens training of inferentie, en deze dynamisch opschalen. Wanneer de taak voltooid is, worden ongebruikte GPU’s automatisch afgeschaald. Dit leidt tot een zeer efficiënt gebruik van infrastructuur, verlaagt kosten en behoudt prestaties.
Cloud-native AI maakt gebruik van een modulaire, schaalbare en automatiseringsvriendelijke architectuur, gebaseerd op bewezen cloud-native principes. De typische aanpak integreert meerdere essentiële technologieën en praktijken om ervoor te zorgen dat AI-toepassingen efficiënt ontwikkeld, geïmplementeerd en beheerd kunnen worden in verschillende omgevingen.
Centraal in deze aanpak staat Kubernetes, dat containers orkestreert voor zowel AI-modellen als ondersteunende microservices. Kubernetes maakt consistente implementatie en schaalbaarheid mogelijk over clusters, of dit nu in de cloud, on-premises of aan de edge is.
De systeemarchitectuur volgt meestal deze basisprincipes:
GitOps: Alle infrastructuur- en modelconfiguraties worden als code beheerd en opgeslagen in Git-repositories. Tools zoals Argo CD en Flux houden continu de gedeclareerde toestand in Git in overeenstemming met de werkelijke toestand in Kubernetes, wat volledig geautomatiseerde en versiebeheerbare implementatie-pipelines mogelijk maakt.
Microservices: Elk onderdeel van de AI-stack—gegevensverwerking, modeltraining, inferentie en monitoring—wordt als een losgekoppelde microservice geïmplementeerd. Dit maakt onafhankelijke schaalbaarheid, updates en hergebruik in verschillende projecten mogelijk.
GPU-scheduling: Gespecialiseerde schedulers en de NVIDIA GPU Operator beheren GPU-resources dynamisch. Dit zorgt ervoor dat dure GPU-resources alleen worden toegewezen wanneer ze nodig zijn, zoals tijdens training of inferentie, wat de kosten en het gebruik aanzienlijk optimaliseert.
CNCF Ecosysteemintegratie: De architectuur maakt intensief gebruik van projecten van de Cloud Native Computing Foundation (CNCF), waaronder Prometheus voor monitoring, Istio voor servicemesh-functionaliteiten, Envoy voor verkeerscontrole en OpenTelemetry voor observability. Deze tools bieden operationeel inzicht, betrouwbaarheid en beveiliging op grote schaal.
Deze werkwijze stelt teams in staat AI-systemen te ontwikkelen en implementeren volgens dezelfde principes als moderne softwareapplicaties—sterk geautomatiseerd, cloud-agnostisch en geschikt voor continue levering.
Geen vendor lock-in; volledig community-gedreven.
Draait overal: on-premises, publieke cloud of hybride.
Schaal modellen en services op aanvraag.
Nauwkeurige controle over het gebruik van resources.
Ondersteund door een levendig open source-ecosysteem.
Integreert naadloos met CI/CD- en GitOps-workflows.