
Kun je als DevOps engineer niet zonder ChatGPT, maar is het gebruik ervan op het werk verboden vanwege beleidsregels of gevoelige data? Ben je benieuwd hoe je je eigen Large Language Model (LLM) kunt hosten? Volg dan deze nieuwe eendaagse workshop!
De dag begint met de basis van Generatieve AI, welke LLM's beschikbaar zijn en hoe je ze kunt gebruiken. We duiken in de hardware-aspecten en laten zien hoe je GPU-acceleratie kunt toepassen binnen Virtual Machines en in Containers.
Door middel van diverse praktische oefeningen zet je je eigen large language model server op en maak je zelfs je eigen model. Je leert hoe je een web-based client verbindt met je eigen Large Language Model, waardoor je in feite je eigen ChatGPT-kloon creƫert.
Daarnaast ontdek je hoe je verbinding maakt met de LLM API en Python, hoe je Retrieval Augmented Generation toepast om je eigen documenten te gebruiken met je llm, en hoe je afbeeldingen analyseert met je eigen LLM. We gaan ook in op log-analyse met behulp van je LLM.
Tools
Dit zijn de tools waar je mee gaat werken



Dit komt allemaal aan bod
De dag is rijkgevuld en de workshop wordt verzorgd door een (zeer) enthousiaste expert die alles haarfijn uitlegt!
- Wat is Generatieve AI?
- Welke LLM's zijn beschikbaar en hoe kun je ze gebruiken?
- Tokens, vectors en parameters
- Hardware: CPU versus GPU
- GPU-acceleratie binnen VM's en Containers
- Een LLM-server opzetten
- Een eigen LLM-model maken
- Een web-based client toepassen voor je eigen LLM
- De LLM API verbinden met Python
- Het gebruiken van je eigen documenten met je eigen LLM
- Afbeeldingen analyseren met je eigen LLM
- Log-analyse met je eigen LLM
AT Computing Academy
We zetten alles voor je klaar
Online leeromgeving, Hands-on Labs en natuurlijk een berg lama's!



Vragen of benieuwd naar onze maatwerk-opties? We staan voor je klaar!
Neem via onderstaand formulier contact met ons op en we gaan graag vrijblijvend met je in gesprek over de mogelijkheden.
Velden gemarkeerd met