Large Language Models Bouwen

Tijdsduur
Locatie
Op locatie, Online
Startdatum en plaats

Large Language Models Bouwen

SpiralTrain
Logo van SpiralTrain
Opleiderscore: starstarstarstarstar_half 8,5 SpiralTrain heeft een gemiddelde beoordeling van 8,5 (uit 50 ervaringen)

Tip: meer info over het programma, prijs, en inschrijven? Download de brochure!

Startdata en plaatsen
placeAmsterdam
9 feb. 2026 tot 12 feb. 2026
Toon rooster
event 9 februari 2026, 09:30-16:30, Amsterdam, Dag 1
event 10 februari 2026, 09:30-16:30, Amsterdam, Dag 2
event 11 februari 2026, 09:30-16:30, Amsterdam, Dag 3
event 12 februari 2026, 09:30-16:30, Amsterdam, Dag 4
placeEindhoven
9 feb. 2026 tot 12 feb. 2026
Toon rooster
event 9 februari 2026, 09:30-16:30, Eindhoven, Dag 1
event 10 februari 2026, 09:30-16:30, Eindhoven, Dag 2
event 11 februari 2026, 09:30-16:30, Eindhoven, Dag 3
event 12 februari 2026, 09:30-16:30, Eindhoven, Dag 4
placeHouten
9 feb. 2026 tot 12 feb. 2026
Toon rooster
event 9 februari 2026, 09:30-16:30, Houten, Dag 1
event 10 februari 2026, 09:30-16:30, Houten, Dag 2
event 11 februari 2026, 09:30-16:30, Houten, Dag 3
event 12 februari 2026, 09:30-16:30, Houten, Dag 4
computer Online: Online
9 feb. 2026 tot 12 feb. 2026
Toon rooster
event 9 februari 2026, 09:30-16:30, Online, Dag 1
event 10 februari 2026, 09:30-16:30, Online, Dag 2
event 11 februari 2026, 09:30-16:30, Online, Dag 3
event 12 februari 2026, 09:30-16:30, Online, Dag 4
placeRotterdam
9 feb. 2026 tot 12 feb. 2026
Toon rooster
event 9 februari 2026, 09:30-16:30, Rotterdam, Dag 1
event 10 februari 2026, 09:30-16:30, Rotterdam, Dag 2
event 11 februari 2026, 09:30-16:30, Rotterdam, Dag 3
event 12 februari 2026, 09:30-16:30, Rotterdam, Dag 4
placeZwolle
9 feb. 2026 tot 12 feb. 2026
Toon rooster
event 9 februari 2026, 09:30-16:30, Zwolle, Dag 1
event 10 februari 2026, 09:30-16:30, Zwolle, Dag 2
event 11 februari 2026, 09:30-16:30, Zwolle, Dag 3
event 12 februari 2026, 09:30-16:30, Zwolle, Dag 4
placeAmsterdam
13 apr. 2026 tot 16 apr. 2026
Toon rooster
event 13 april 2026, 09:30-16:30, Amsterdam, Dag 1
event 14 april 2026, 09:30-16:30, Amsterdam, Dag 2
event 15 april 2026, 09:30-16:30, Amsterdam, Dag 3
event 16 april 2026, 09:30-16:30, Amsterdam, Dag 4
placeEindhoven
13 apr. 2026 tot 16 apr. 2026
Toon rooster
event 13 april 2026, 09:30-16:30, Eindhoven, Dag 1
event 14 april 2026, 09:30-16:30, Eindhoven, Dag 2
event 15 april 2026, 09:30-16:30, Eindhoven, Dag 3
event 16 april 2026, 09:30-16:30, Eindhoven, Dag 4
placeHouten
13 apr. 2026 tot 16 apr. 2026
Toon rooster
event 13 april 2026, 09:30-16:30, Houten, Dag 1
event 14 april 2026, 09:30-16:30, Houten, Dag 2
event 15 april 2026, 09:30-16:30, Houten, Dag 3
event 16 april 2026, 09:30-16:30, Houten, Dag 4
computer Online: Online
13 apr. 2026 tot 16 apr. 2026
Toon rooster
event 13 april 2026, 09:30-16:30, Online, Dag 1
event 14 april 2026, 09:30-16:30, Online, Dag 2
event 15 april 2026, 09:30-16:30, Online, Dag 3
event 16 april 2026, 09:30-16:30, Online, Dag 4
placeRotterdam
13 apr. 2026 tot 16 apr. 2026
Toon rooster
event 13 april 2026, 09:30-16:30, Rotterdam, Dag 1
event 14 april 2026, 09:30-16:30, Rotterdam, Dag 2
event 15 april 2026, 09:30-16:30, Rotterdam, Dag 3
event 16 april 2026, 09:30-16:30, Rotterdam, Dag 4
placeZwolle
13 apr. 2026 tot 16 apr. 2026
Toon rooster
event 13 april 2026, 09:30-16:30, Zwolle, Dag 1
event 14 april 2026, 09:30-16:30, Zwolle, Dag 2
event 15 april 2026, 09:30-16:30, Zwolle, Dag 3
event 16 april 2026, 09:30-16:30, Zwolle, Dag 4
placeAmsterdam
8 jun. 2026 tot 11 jun. 2026
Toon rooster
event 8 juni 2026, 09:30-16:30, Amsterdam, Dag 1
event 9 juni 2026, 09:30-16:30, Amsterdam, Dag 2
event 10 juni 2026, 09:30-16:30, Amsterdam, Dag 3
event 11 juni 2026, 09:30-16:30, Amsterdam, Dag 4
placeEindhoven
8 jun. 2026 tot 11 jun. 2026
Toon rooster
event 8 juni 2026, 09:30-16:30, Eindhoven, Dag 1
event 9 juni 2026, 09:30-16:30, Eindhoven, Dag 2
event 10 juni 2026, 09:30-16:30, Eindhoven, Dag 3
event 11 juni 2026, 09:30-16:30, Eindhoven, Dag 4
placeHouten
8 jun. 2026 tot 11 jun. 2026
Toon rooster
event 8 juni 2026, 09:30-16:30, Houten, Dag 1
event 9 juni 2026, 09:30-16:30, Houten, Dag 2
event 10 juni 2026, 09:30-16:30, Houten, Dag 3
event 11 juni 2026, 09:30-16:30, Houten, Dag 4
computer Online: Online
8 jun. 2026 tot 11 jun. 2026
Toon rooster
event 8 juni 2026, 09:30-16:30, Online, Dag 1
event 9 juni 2026, 09:30-16:30, Online, Dag 2
event 10 juni 2026, 09:30-16:30, Online, Dag 3
event 11 juni 2026, 09:30-16:30, Online, Dag 4
placeRotterdam
8 jun. 2026 tot 11 jun. 2026
Toon rooster
event 8 juni 2026, 09:30-16:30, Rotterdam, Dag 1
event 9 juni 2026, 09:30-16:30, Rotterdam, Dag 2
event 10 juni 2026, 09:30-16:30, Rotterdam, Dag 3
event 11 juni 2026, 09:30-16:30, Rotterdam, Dag 4
placeZwolle
8 jun. 2026 tot 11 jun. 2026
Toon rooster
event 8 juni 2026, 09:30-16:30, Zwolle, Dag 1
event 9 juni 2026, 09:30-16:30, Zwolle, Dag 2
event 10 juni 2026, 09:30-16:30, Zwolle, Dag 3
event 11 juni 2026, 09:30-16:30, Zwolle, Dag 4
placeAmsterdam
10 aug. 2026 tot 13 aug. 2026
Toon rooster
event 10 augustus 2026, 09:30-16:30, Amsterdam, Dag 1
event 11 augustus 2026, 09:30-16:30, Amsterdam, Dag 2
event 12 augustus 2026, 09:30-16:30, Amsterdam, Dag 3
event 13 augustus 2026, 09:30-16:30, Amsterdam, Dag 4
placeEindhoven
10 aug. 2026 tot 13 aug. 2026
Toon rooster
event 10 augustus 2026, 09:30-16:30, Eindhoven, Dag 1
event 11 augustus 2026, 09:30-16:30, Eindhoven, Dag 2
event 12 augustus 2026, 09:30-16:30, Eindhoven, Dag 3
event 13 augustus 2026, 09:30-16:30, Eindhoven, Dag 4
Beschrijving
De cursus Large Language Models Bouwen van SpiralTrain leert je hoe je met PyTorch en modern tooling transformer-based LLMs ontwerpt, traint, fine-tuned en deployed.

Intro LLM

De cursus Large Language Models bouwen start met wat LLM’s zijn, waar ze worden ingezet en gaat in op de lifecycle van bouwen versus gebruiken. De Transformer/GPT-architectuur wordt geintroduceerd evenals hoe modellen leren van grote datasets en wanneer je klassieke QA gebruikt versus RAG.

Werken met Tekstdata

Je leert ruwe tekst om te zetten naar modelklare tensors dor middel van tokenization token→ID mapping, speciale/contexttokens en sliding-window sampling. Embeddings en positional encodings worden behandeld en hoe…

Lees de volledige beschrijving

Veelgestelde vragen

Er zijn nog geen veelgestelde vragen over dit product. Als je een vraag hebt, neem dan contact op met onze klantenservice.

Nog niet gevonden wat je zocht? Bekijk deze onderwerpen: Databricks, Engineering, Data Science, Machine learning en Artificial Intelligence.

De cursus Large Language Models Bouwen van SpiralTrain leert je hoe je met PyTorch en modern tooling transformer-based LLMs ontwerpt, traint, fine-tuned en deployed.

Intro LLM

De cursus Large Language Models bouwen start met wat LLM’s zijn, waar ze worden ingezet en gaat in op de lifecycle van bouwen versus gebruiken. De Transformer/GPT-architectuur wordt geintroduceerd evenals hoe modellen leren van grote datasets en wanneer je klassieke QA gebruikt versus RAG.

Werken met Tekstdata

Je leert ruwe tekst om te zetten naar modelklare tensors dor middel van tokenization token→ID mapping, speciale/contexttokens en sliding-window sampling. Embeddings en positional encodings worden behandeld en hoe om te gaan om met onbekende woorden.

Attention-mechanisme

Deze module demystificeert self-attention voor long-sequence modeling: queries, keys, values en causal masking om toekomstige tokens te verbergen. Positional encoding en multi-head attention worden toegvoegd toe om afhankelijkheden in input op te vangen.

PyTorch Deep Learning

Deze module behandelt PyTorch-basics—tensors en training loops evenals tooling om model kwaliteit te meten. Ingegaan wordt op feature scaling/normalization, activatie- en loss-functies en backpropagation.

Neurale Netwerken

Vervolgens bouw je MLP’s en CNN’s in PyTorch, kies je passende activaties en losses en implementeer je backpropagation. Ook NLP-specifieke preprocessing wordt behandeld evenals end-to-end binaire en multiclass-classificatie.

GPT van scratch

Daarna implementeer je een minimale GPT met layer normalization, residual connections en attention + feed-forward (GELU).

Pretraining

Je pretraint de LLM op ongelabelde tekst met next-token prediction en volgt training- versus validation-losses. Je verkent decoding strategies (bijv. temperature, top-k), beheerst randomness voor reproduceerbaarheid en slaat PyTorch-weights op/laadt ze in.

Tuning voor Classificatie

We bereiden datasets en dataloaders voor, initialiseren vanuit pretrained weights en voegen een classification head met softmax toe. Je traint en evalueert met loss/accuracy, met als voorbeeld een LLM-based spam-classification.

Fine-tuning

Tot slot oefen je supervised instruction tuning: datasets formatteren, efficiënt batchen en een pretrained LLM fine-tunen. Je evalueert outputs, exporteert responses/checkpoints en past parameter-efficiënte methoden zoals LoRA toe.

Doelgroep Cursus Large Language Models Bouwen

De cursus Large Language Models Bouwen is bedoeld voor engineers die transformer-based LLM’s willen ontwerpen.

Voorkennis Cursus Large Language Models Bouwen

Deelnemers dienen vertrouwd te zijn met Python. Ervaring met PyTorch of een vergelijkbaar Deep Learning-framework is een plus.

Uitvoering Training Large Language Models Bouwen

De training combineert bondige theorie met begeleide, hands-on labs. Via code-alongs bouw je een mini-GPT, bereid je datasets voor, voer je pretraining en fine-tuning uit en deploy je modellen.

Certificaat Large Language Models Bouwen

Na afloop ontvangen deelnemers een certificaat van deelname aan de cursus Large Language Models Bouwen.

Modules

Module 1 : LLM Intro

  • What is an LLM?
  • Applications of LLMs
  • Stages of Building LLMs
  • Stages of Using LLMs
  • Transformer Architecture
  • Utilizing Large Datasets
  • GPT Architecture Internals
  • Learn Language Patterns
  • Retrieval Augmented Generation
  • Question and Answer Systems
  • QA versus RAG
  • Building an LLM

Module 2 : Working with Text Data

  • Word Embeddings
  • Decoders and Encoders
  • Decoder Only Transformer
  • Tokenizing text
  • Convert Tokens into IDs
  • Special Context Tokens
  • Understand Sentence Structure
  • Byte Pair Encoding
  • Unknown Words
  • Sampling with Sliding Window
  • Creating Token Embeddings
  • Encoding Word Positions

Module 3 : Attentions Mechanism

  • Modeling Long Sequences
  • Capturing Data Dependencies
  • Attention Mechanisms
  • Attending Different Input Parts
  • Using Self-Attention
  • Trainable Weights
  • Hiding Future Words
  • Positional Encoding
  • Causal Attention
  • Masking Weights with Dropout
  • Multihead Attention
  • Stacking Attentions Layers

Module 4 : Pytorch Deep Learning

  • Deep Learning Intro
  • Overview of PyTorch
  • PyTorch Tensors
  • Tensor Operations
  • Model Evaluation Metrics
  • Feature Scaling
  • Feature Normalization
  • Categorical Features
  • Activation Functions
  • Loss Functions
  • Backpropagation

Module 5 : Neural Networks

  • Neural Networks Intro
  • Building NN with PyTorch
  • Multiple Layers of Arrays
  • Convolutional Neural Networks
  • Activation Functions
  • Loss Functions
  • Backpropagation
  • Natural Language Processing
  • Stopword Removal
  • Binary Classification
  • Multi-class Classification

Module 6 : GPT from scratch

  • Coding an LLM Architecture
  • Layer Normalization
  • Normalizing Activations
  • Feed Forward Network
  • GELU Activations
  • Adding Shortcut Connections
  • Connecting Attention
  • Weight Tying
  • Linear Layers in Transformer Block
  • Coding the GPT Model
  • Generating Text

Module 7 : Pretraining

  • Pretraining on Unlabeled Data
  • Calculating Text Generation Loss
  • Training Losses
  • Validation Set Losses
  • Training an LLM
  • Decoding Strategies
  • Control Randomness
  • Temperature Scaling
  • Saving Model Weights in PyTorch
  • Loading Pretrained Weights

Module 8 : Tuning for Classification

  • Categories of Fine-Tuning
  • Preparing the Dataset
  • Creating Data Loaders
  • Top-k Sampling
  • Soft-Max Function
  • Initializing with Pretrained Weights
  • Adding Classification Head
  • Classification Loss and Accuracy
  • Fine-tuning on Supervised Data
  • Using LLM as Spam Classifier

Module 9 : Fine-Tuning

  • Instruction Fine-tuning
  • Supervised Instruction
  • Preparing a Dataset
  • Organizing Training Batches
  • Creating Data Loaders
  • Loading a pretrained LLM
  • Fine-tuning the LLM
  • Extracting and Saving Responses
  • Evaluating Fine-tuned LLM
  • Fine Tuning with LoRA

Waarom SpiralTrain

SpiralTrain is specialist op het gebied van software development trainingen. Wie bieden zowel trainingen aan voor beginnende programmeurs die zich de basis van talen en tools eigen willen maken als ook trainingen voor ervaren software professionals die zich willen bekwamen in de nieuwste versie van een taal of een framework.

Onze trainingkenmerken zich door :

• Klassikale of online open roostertrainingen en andere trainingsvormen
• Eenduidige en scherpe cursusprijzen, zonder extra kosten
• Veel trainingen met een doorlopende case study
• Trainingen die gericht zijn op certificering

Blijf op de hoogte van nieuwe ervaringen
Er zijn nog geen ervaringen.
Deel je ervaring
Heb je ervaring met deze cursus? Deel je ervaring en help anderen kiezen. Als dank voor de moeite doneert Springest € 1,- aan Stichting Edukans.

Er zijn nog geen veelgestelde vragen over dit product. Als je een vraag hebt, neem dan contact op met onze klantenservice.

Download gratis en vrijblijvend de informatiebrochure

(optioneel)
(optioneel)
(optioneel)
infoEr is een telefoonnummer vereist om deze informatieaanvraag in behandeling te nemen. (optioneel)
(optioneel)
(optioneel)
(optioneel)

Heb je nog vragen?

(optioneel)
We slaan je gegevens op om je via e-mail en evt. telefoon verder te helpen.
Meer info vind je in ons privacybeleid.