De Toekomst is Sovereign & Intelligent: Een Terugblik op KubeCon Europa 2026
door: Niels Abspoel
KubeCon Europa 2026 zit erop! Het was niet alleen een weerzien met oud-collega's en mede-engineers, maar vooral een driedaagse deep-dive in de razendsnelle evolutie van ons vakgebied. Waar Kubernetes ooit begon als container-orchestrator, is het anno 2026 onmiskenbaar het fundament voor de AI-revolutie geworden.
De AI-Native Transformatie: LLM's op Kubernetes
Een van de grootste onthullingen kwam uit de koker van RedHat, Google en IBM: llm-d. Dit distributed inference platform, gebouwd op vLLM, fungeert als een intelligente router tussen agent-loads en de onderliggende GPU-clusters en caches. Het doel? Maximale efficiëntie in een wereld waar rekenkracht schaars en duur is.
Waarom llm-d
LLM-d lost het probleem op dat normale loadbalancers/routers geen idee hebben wat een inference (AI prompt) is en dat dit geen HTTP request is. Normale loadbalancers sturen requests (standaard) naar de minst drukke backend/node. Met een AI-prompt is dat vervelend. De GPU moet dan steeds opnieuw alle parameters en context bij elkaar verzamelen, terwijl een andere node hier misschien al aan begonnen was. Je wilt daarom de initiële AI-prompt en eventuele vervolg prompts op dezelfde node, bij dezelfde GPU hebben voor snellere en efficiëntere afhandeling.
Meer informatie: llm-d.ai
GPU-Aware Scheduling
Een andere mijlpaal is dat de KAI scheduler officieel is toegetreden tot de CNCF Sandbox. Deze gespecialiseerde scheduler binnen je cluster zorgt voor GPU-aware scheduling, essentieel voor het optimaal benutten van hardware bij zware AI-workloads.
Waarom is KAI scheduler interessant
De normale Kubernetes scheduler houdt rekening met CPU/memory van een onderliggende node, maar niet of er GPU's in deze node zitten en hoeveel deze aan kunnen. De KAI scheduler kan met beulp van extensies betere beslissingen nemen waar een workload moet komen te draaien. Dat gebeurt onder andere op basis van welke GPU server beschikbaar is. Hierdoor ontstaat een betere verdeling van GPU-gebaseerde workloads, zoals AI workloads.
Sourcecode: github.com/kai-scheduler/KAI-Scheduler
Netwerken & Ingress: De Gateway API Wint
Er vond een symbolische "wisseling van de wacht" plaats op het hoofdpodium:
- Ingress-Nginx op archief: Het iconische project is officieel gearchiveerd.
- Gateway API aan kop: Met inmiddels meer dan 40 verschillende oplossingen, presenteerde de Gateway API SIG (Special Interes Group) een nieuwe wizard om engineers te helpen de juiste keuzes te maken in dit overvolle landschap.
Meer informatie: gateway-api.sigs.k8s.io/implementations/wizard/
Network SIG op GitHub
Soeverein Europa: Cloud op Eigen Voorwaarden
Wat dit jaar extra opviel, was de sterke Europese drang naar digitale soevereiniteit. Grote organisaties bouwen niet langer blind op publieke clouds, maar kiezen voor hybride, eigen regie. Tijdens de conferentie lieten een aantal bekende partijen zien hoe zij hun landschap hebben opgebouwd, met soevereiniteit in gedachte.
| Organisatie | Strategie | Stack / Details |
|---|---|---|
| SNCF | 200+ Clusters | Hybride spreiding over Azure, AWS en Private Cloud. Keynote details |
| BWI (Defensie) | Sovereign Multi-cloud | Focus op volledige controle en veiligheid. Keynote details |
| Swisscom | Nieuwe Ref. Architectuur | Gebouwd met Kubermatic, KubeOne, KubeVirt, Kyverno en ArgoCD. Architectuur details |
Wetgeving: De Cyber Resilience Act (CRA)
Niemand minder dan Greg Kroah-Hartman gaf een kraakheldere (en noodzakelijke) update over de impact van nieuwe Europese wetgeving op Open Source Software.
Hoewel individuele bijdragers expliciet worden ontzien binnen deze nieuwe wet, moeten softwarebedrijven en stichtingen (stewards) wel aan de bak:
- 11 september 2026: Verplichte rapportage voor bedrijven en Open Source-stichtingen.
- 11 december 2027: Volledige implementatie van de CRA, inclusief CE-marking en conformiteitsbeoordelingen.
Meer informatie: Wikipedia - Cyber Resilience Act
De Kracht van de Community
Naast de harde techniek blijft de menselijke kant het kloppend hart van KubeCon. Of het nu gaat om een kop koffie met de maintainers van je favoriete project of het bespreken van complexe issues met je "Open Source helden"; de geest van samenwerking is nergens zo tastbaar als hier. Deze interacties leggen de basis voor de partnerschappen van morgen. Een goed voorbeeld hierin is dat ik samen met mijn collega direct met de maintainers van Istio onze vragen kunnen stellen of bepaalde plugins al ondersteund worden en hoe. Een ander voordeel is korte vragen stellen aan maintainers van Keycloak over specifieke zaken.
Conclusie
KubeCon 2026 was een krachtig bewijs van de synergie tussen AI en Cloud-Native. We gaan een jaar tegemoet waarin efficiëntie (llm-d), regelgeving (CRA) en soevereiniteit de agenda bepalen.
Op naar een innovatief en Cloud-Native 2026!
$ blog-details
- $ categorie: Events
- $ tools: Kubernetes, llm-d, KAI Scheduler, Gateway API, Kubermatic, ArgoCD
- $ date: 2026-04-20T18:00:00 CEST
- $ trainingen:
Kubernetes Fundamentals (CKAD)
Kubernetes Fundamentals - CKA Extension
Using Kubernetes with Rancher