Kun je als DevOps engineer niet zonder ChatGPT, maar is het gebruik ervan op het werk verboden vanwege beleidsregels of gevoelige data? Ben je benieuwd hoe je je eigen Large Language Model (LLM) kunt hosten? Volg dan deze nieuwe eendaagse workshop!

De dag begint met de basis van Generatieve AI, welke LLM's beschikbaar zijn en hoe je ze kunt gebruiken. We duiken in de hardware-aspecten en laten zien hoe je GPU-acceleratie kunt toepassen binnen Virtual Machines en in Containers.

Door middel van diverse praktische oefeningen zet je je eigen large language model server op en maak je zelfs je eigen model. Je leert hoe je een web-based client verbindt met je eigen Large Language Model, waardoor je in feite je eigen ChatGPT-kloon creƫert.

Daarnaast ontdek je hoe je verbinding maakt met de LLM API en Python, hoe je Retrieval Augmented Generation toepast om je eigen documenten te gebruiken met je llm, en hoe je afbeeldingen analyseert met je eigen LLM. We gaan ook in op log-analyse met behulp van je LLM.

Tools

Dit zijn de tools waar je mee gaat werken

Docker
Python
Ollama
Linux
Langflow
Hugging Face

Dit komt allemaal aan bod

De dag is rijkgevuld en de workshop wordt verzorgd door een (zeer) enthousiaste expert die alles haarfijn uitlegt!

AT Computing Academy

We zetten alles voor je klaar

Online leeromgeving, Hands-on Labs en natuurlijk een berg lama's!

AT Computing Academy
AT Cloud Labs
AT Lama

Overtuigd? Klik op de button om direct een plekje in de klas te claimen via onze partner Vijfhart IT-Opleidingen!

Vragen of benieuwd naar onze maatwerk-opties? We staan voor je klaar!

Neem via onderstaand formulier contact met ons op en we gaan graag vrijblijvend met je in gesprek over de mogelijkheden.

Velden gemarkeerd met * zijn vereist. We gebruiken je e-mail adres alleen voor contact over je vraag/verzoek. Je ontvangt van ons GEEN nieuwsbrieven of andere commerciele e-mails.