Generatieve AI voor DevOps: bouw je eigen LLM server (Virtueel)

Tijdsduur
Locatie
Op locatie
Startdatum en plaats

Generatieve AI voor DevOps: bouw je eigen LLM server (Virtueel)

AT Computing
Logo van AT Computing
Opleiderscore: starstarstarstarstar_border 8 AT Computing heeft een gemiddelde beoordeling van 8 (uit 2 ervaringen)

Tip: meer info over het programma, prijs, en inschrijven? Download de brochure!

Startdata en plaatsen
placeVirtueel
18 mrt. 2026
check_circle Startgarantie
Toon rooster
event 18 maart 2026, 08:45-16:00, Virtueel, Day 1
placeVirtueel
26 jun. 2026
Toon rooster
event 26 juni 2026, 08:45-16:00, Virtueel, Day 1
Beschrijving

Lesmethode :

Virtueel

Algemeen :

Maak jij als DevOps engineer graag gebruik van ChatGPT, maar mag dat niet op je werk vanwege beleid of gevoelige data? Ben je benieuwd hoe je je eigen Large Language Model (LLM) kunt hosten?

In de eendaagse workshop Generatieve AI voor DevOps Engineers bij AT Computing leer je hoe je je eigen lokale versie van ''ChatGPT'' opzet en gebruikt. Alles gebeurt volledig op basis van open-source technologie, zonder dataverkeer naar de cloud. De dag start met een introductie in Generatieve AI: welke LLM's zijn er beschikbaar en hoe zet je ze in? Daarna duiken we in de hardwarekant, waaronder GPU-acceleratie op virtuele machines en in containers.

Met diverse praktijk…

Lees de volledige beschrijving

Veelgestelde vragen

Er zijn nog geen veelgestelde vragen over dit product. Als je een vraag hebt, neem dan contact op met onze klantenservice.

Nog niet gevonden wat je zocht? Bekijk deze onderwerpen: DevOps, ChatGPT, ASL foundation, Agile testen en Reliability Engineering (SRE).

Lesmethode :

Virtueel

Algemeen :

Maak jij als DevOps engineer graag gebruik van ChatGPT, maar mag dat niet op je werk vanwege beleid of gevoelige data? Ben je benieuwd hoe je je eigen Large Language Model (LLM) kunt hosten?

In de eendaagse workshop Generatieve AI voor DevOps Engineers bij AT Computing leer je hoe je je eigen lokale versie van ''ChatGPT'' opzet en gebruikt. Alles gebeurt volledig op basis van open-source technologie, zonder dataverkeer naar de cloud. De dag start met een introductie in Generatieve AI: welke LLM's zijn er beschikbaar en hoe zet je ze in? Daarna duiken we in de hardwarekant, waaronder GPU-acceleratie op virtuele machines en in containers.

Met diverse praktijkoefeningen richt je je eigen LLM-server in en maak je zelfs een eigen ''model''. Je leert ook hoe je een webgebaseerde client koppelt aan je LLM zodat je in feite je eigen ChatGPT-clone bouwt. Daarnaast ontdek je hoe je de LLM-API koppelt met Python, Retrieval Augmented Generation (RAG) toepast om met je eigen documenten te werken, afbeeldingen analyseert en zelfs loganalyse uitvoert met je LLM.

Door het volgen van deze cursus voldoe je direct aan de eisen vanuit de EU AI Act op het gebied van AI-geletterdheid: risico's, privacy, het delen van data, model bias en hallucinaties worden allemaal uitgebreid behandeld. Zo vergroot je niet alleen je praktische vaardigheden, maar blijf je ook volledig compliant met de nieuwe regelgeving.

Doel :

Na het volgen van deze cursus heb je kennis over de werking van de interne werking van GenAI in het algemeen en LLM's in het bijzonder. Ook leer je in theorie en praktijk hoe je zelf een lokale LLM-server opzet zonder dat jouw data naar een Cloud-omgeving wordt gestuurd. Bovendien voldoe je met het volgen van deze cursus aan de eisen vanuit de EU AI Act op gebied van AI Geletterdheid.

Doelgroep :

Deze cursus is voor IT professionals, systeembeheerders, software ontwikkelaars, Cloud- en DevOps Engineers die voor hun dagelijks werk gebruik willen gaan maken van large language models.

Voorkennis :

De volgende voorkennis is vereist:
- Linux/UNIX Fundamentals
- Linux Infrastructure
Kennis van een programmeertaal, bij voorkeur Python, is een pre.

Onderwerpen :


- Wat is Generatieve AI?
- Welke LLM¿s zijn beschikbaar en hoe kun je ze gebruiken?
- Tokens, vectors en parameters
- Hardware: CPU versus GPU: hoe gebruik je GPU-acceleratie op Virtual Machines en in containers (Docker)
- Een LLM-server opzetten.
- Een eigen LLM-model maken.
- Een web-based client toepassen voor je eigen LLM.
- De LLM API verbinden met Python.
- Het gebruiken van je eigen documenten met je eigen LLM.
- Afbeeldingen analyseren met je eigen LLM.
- Log-analyse met je LLM.

Blijf op de hoogte van nieuwe ervaringen
Er zijn nog geen ervaringen.
Deel je ervaring
Heb je ervaring met deze cursus? Deel je ervaring en help anderen kiezen. Als dank voor de moeite doneert Springest € 1,- aan Stichting Edukans.

Er zijn nog geen veelgestelde vragen over dit product. Als je een vraag hebt, neem dan contact op met onze klantenservice.

Download gratis en vrijblijvend de informatiebrochure

(optioneel)
(optioneel)
(optioneel)
(optioneel)
(optioneel)
(optioneel)

Heb je nog vragen?

(optioneel)
We slaan je gegevens op om je via e-mail en evt. telefoon verder te helpen.
Meer info vind je in ons privacybeleid.