Expert 1 Dag Gratis

Advanced Prompt Engineering

Ga verder dan de basis. Leer geavanceerde strategieën om complexe taken uit te voeren, hallucinaties te verminderen en consistente output te garanderen voor zakelijke toepassingen.

Ga verder dan de basis. Leer geavanceerde strategieën om complexe taken uit te voeren, hallucinaties te verminderen en consistente output te garanderen voor zakelijke toepassingen. Module 1: Zero-Shot vs. Few-Shot Prompting. Module 2: Reasoning (Chain-of-Thought). Module 3: Structuur & Delimiters. Module 4: Persona & Tone of Voice.

Modules

Module 1: Zero-Shot vs. Few-Shot Prompting

Hoe leert een model tijdens het gesprek? (In-Context Learning)

Een veelgemaakte fout is denken dat je het model 'traint' als je ermee chat. Dat is niet zo. Het model leert niet permanent, maar past zich wel aan binnen het huidige gesprek (Context Window). Dit noemen we In-Context Learning. De krachtigste techniek hierbij is het geven van voorbeelden.

Zero-Shot Prompting

Je vraagt het model iets te doen zonder voorbeelden. Dit werkt prima voor simpele taken.

Vraag: "Classificeer deze review: 'Het eten was koud.'"
Antwoord: "Negatief"

Few-Shot Prompting (De Gamechanger)

Je geeft het model 1 of meer voorbeelden (shots) van wat je verwacht. Dit dwingt het model om jouw patroon, toon en formaat te volgen. Dit is cruciaal voor consistente zakelijke output.

Prompt:
Review: "Super lekker!" -> Sentiment: Positief
Review: "Slechte service." -> Sentiment: Negatief
Review: "Het eten was koud." -> Sentiment:

Door de voorbeelden snapt het model direct dat je alleen "Negatief" wilt als antwoord, en geen hele volzin.

Quiz - Module 1: Zero-Shot vs. Few-Shot Prompting

1. Wat is 'In-Context Learning'?

Het model permanent trainen met nieuwe data
Het model aanpassen binnen het huidige gesprek door context te geven
Het model opnieuw programmeren
Leren uit een boek

2. Wanneer gebruik je Few-Shot prompting?

Als je wilt dat het model een specifiek formaat of patroon volgt
Als je lui bent
Als het model te traag is
Als je geen Engels spreekt
Module 2: Reasoning (Chain-of-Thought)

System 1 vs. System 2 Denken

Net als mensen hebben LLM's de neiging om 'snel en intuïtief' te antwoorden (System 1). Bij rekenvragen of logica leidt dit vaak tot fouten. We moeten het model dwingen om 'langzaam en analytisch' (System 2) na te denken.

Chain-of-Thought (CoT)

Dit is de techniek waarbij je het model vraagt om "stap voor stap na te denken" of de tussenstappen van de berekening te laten zien.

❌ Standard Prompt

Q: Ik heb 3 appels. Ik eet er 1. Ik koop er 5 bij. Ik geef er 2 aan Mark. Hoeveel heb ik er?

A: 6. (Vaak fout bij complexere sommen)

✅ CoT Prompt

Q: ... Denk stap voor stap na.

A:
1. Start: 3 appels.
2. Eet 1: 3 - 1 = 2.
3. Koop 5: 2 + 5 = 7.
4. Geef 2: 7 - 2 = 5.
Antwoord is 5.

Tree-of-Thought

Voor zeer complexe problemen kun je het model vragen om drie verschillende oplossingsrichtingen te genereren, deze te evalueren en dan de beste te kiezen. Dit simuleert brainstormen met zichzelf.

Quiz - Module 2: Reasoning (Chain-of-Thought)

1. Wat triggert de 'Chain-of-Thought' methode?

Het commando 'Denk stap voor stap na'
Het commando 'Wees snel'
Het gebruik van hoofdletters
Het commando 'Negeer alles'

2. Waarvoor is CoT vooral nuttig?

Creatief schrijven
Reken- en logica problemen (Redeneren)
Vertalen
Samenvatten
Module 3: Structuur & Delimiters

Help de AI je input te lezen

Een model ziet je prompt als één lange brij tekst. Als je instructies en je data door elkaar laat lopen, raakt het model in de war. Gebruik Delimiters (scheidingstekens) om secties duidelijk te markeren.

Vat de tekst samen die tussen drie aanhalingstekens staat.

Tekst: """
Hier komt een heel lang verhaal over...
"""

Goede delimiters zijn: """, ###, ---, of XML tags zoals <tekst> en </tekst>.

Output Formats

Wil je de output automatisch verwerken in Excel of een app? Vraag dan specifiek om formaten zoals JSON, CSV of Markdown Tabel.

Quiz - Module 3: Structuur & Delimiters

1. Wat is een Delimiter?

Een computervirus
Een leesteken of symbool om secties in je prompt te scheiden
Een persoon die limieten stelt
Een type geheugen

2. Welk formaat is handig voor data-verwerking?

Een gedicht
Platte tekst
JSON of CSV
Een verhaal
Module 4: Persona & Tone of Voice

Act As...

Zonder instructie is ChatGPT een neutrale, behulpzame assistent. Maar soms wil je een specialist. Door een Persona aan te nemen, verandert het model zijn woordkeuze, kennisniveau en toon.

De Persona Formule

Een goede persona-prompt bevat:

  • Rol: "Je bent een Senior Jurist..."
  • Context: "...gespecialiseerd in arbeidsrecht in Nederland."
  • Taak: "Schrijf een formele bezwaarbrief..."
  • Toon: "...gebruik professionele terminologie, wees streng maar beleefd."
  • Doelgroep: "...schrijf dit voor een Rechter."

Simulatie

Je kunt AI zelfs vragen om een specifiek persoon na te doen (bijv. Steve Jobs) of een rol in een rollenspel (bijv. 'jij bent de sollicitant, ik ben de recruiter').

Quiz - Module 4: Persona & Tone of Voice

1. Waarom definieer je een Persona?

Om het model een specifiek perspectief, toon en expertise-niveau te geven
Omdat het model anders niet praat
Om het model voor de gek te houden
Het is verplicht

2. Welk element hoort NIET in een goede Persona prompt?

De rol (wie ben je)
De doelgroep (voor wie schrijf je)
Je bankrekeningnummer
De toon (hoe klink je)

Examen: Advanced Prompt Engineering

Beantwoord minimaal 80% van de vragen correct om je certificaat te ontvangen (20 vragen, minimaal 16 goed).

1. Wat is Few-Shot Prompting?

Het model vragen iets te doen met weinig woorden
Het model een paar voorbeelden geven van input en gewenste output
Het model vragen om shots te nemen
Het model 1 keer gebruiken

2. Wat is het doel van Chain-of-Thought (CoT)?

Het model sneller maken
Het model dwingen stap voor stap te redeneren voor betere logica
Het model creatiever maken
Het model laten rijmen

3. Wat is een voordeel van het gebruik van Delimiters (b.v. ###)?

Het ziet er mooi uit
Het helpt het model onderscheid te maken tussen instructie en data
Het maakt de prompt langer
Het is een code voor geheimtaal

4. Wat is In-Context Learning?

Het model leert permanent nieuwe feiten
Het model past zich tijdelijk aan op basis van de informatie in het huidige gesprek
Het model leert van het internet
Het model gaat naar school

5. Welk output formaat is het beste voor verwerking door andere software?

JSON
Een gedicht
Een lange paragraaf
Spreektaal

6. Wat bedoelen we met 'Zero-Shot'?

Geen voorbeelden geven, direct de taak vragen
Niet schieten
Nul resultaat
Een slechte prompt

7. Wat is een 'System Prompt'?

Een foutmelding van het systeem
De initiële instructie die het gedrag en de persona van de AI definieert
De input van de gebruiker
De output van de AI

8. Hoe verminder je hallucinaties (verzinsels)?

Vragen om bronvermelding of zeggen 'als je het niet weet, zeg het dan'
De temperatuur op 10 zetten
Het model vragen om te liegen
Geen context geven

9. Wat is Tree-of-Thought?

Een diagram van een boom
Een geavanceerde techniek waarbij de AI meerdere oplossingspaden verkent en evalueert
Denken aan bomen
Een type beslisboom in Machine Learning

10. Waarom is 'Tone of Voice' specificeren belangrijk?

Anders klinkt de AI altijd hetzelfde (vaak te enthousiast of te formeel)
De AI heeft geen stem
Om de AI te laten zingen
Het is niet belangrijk

11. Wat is 'Priming'?

De AI voorbereiden met context voordat je de echte vraag stelt
De AI verven
De eerste vraag overslaan
De AI sneller laten opstarten

12. Is een LLM deterministisch (geeft het altijd hetzelfde antwoord)?

Ja, altijd
Nee, tenzij Temperature op 0 staat, is er altijd een kans op variatie
Alleen op maandag
Nee, het is puur willekeur

13. Wat is prompt injection?

Een medische procedure
Een techniek om de instructies van de AI te manipuleren of te omzeilen
Een manier om sneller te typen
Een update installeren

14. Wanneer gebruik je een XML tag zoals &lt;context&gt;?

Om HTML te schrijven
Om duidelijk aan te geven waar de context begint en eindigt
Om de tekst vetgedrukt te maken
Nooit

15. Wat is Self-Consistency?

De AI vragen om 5 keer hetzelfde antwoord te genereren en de meest voorkomende te kiezen
De AI vragen om consistent te zijn
Zelfverzekerd zijn
Hetzelfde antwoord geven als gisteren

16. Waarom werken negatieve constraints ('Doe NIET...') vaak minder goed?

LLMs focussen op de woorden die er staan, dus ze denken toch aan hetgeen ze niet moeten doen ('Roze Olifant effect')
LLMs zijn rebels
LLMs begrijpen het woord NIET niet
Het werkt juist heel goed

17. Wat is de beste aanpak voor complexe taken?

Alles in 1 gigantische prompt proppen
De taak opbreken in sub-taken (Chain of prompts)
Hopen op het beste
De vraag herhalen

18. Wat is 'Generated Knowledge Prompting'?

De AI eerst vragen om kennis over het onderwerp te genereren, en die kennis dan gebruiken om de vraag te beantwoorden
Kennis kopen
Wikipedia kopiëren
Raden

19. Hoe noem je het fenomeen dat een model aan het einde van een lange prompt de begin-instructies vergeet?

Lost in the Middle / Context Limit issues
Dementie
Korte termijn geheugenverlies
Computer crash

20. Wat is het belangrijkste principe van Prompt Engineering?

Duidelijkheid en specificiteit (Wees expliciet)
Zo kort mogelijk zijn
Moeilijke woorden gebruiken
Beleefd zijn