Ga verder dan de basis. Leer geavanceerde strategieën om complexe taken uit te voeren, hallucinaties te verminderen en consistente output te garanderen voor zakelijke toepassingen.
Ga verder dan de basis. Leer geavanceerde strategieën om complexe taken uit te voeren, hallucinaties te verminderen en consistente output te garanderen voor zakelijke toepassingen. Module 1: Zero-Shot vs. Few-Shot Prompting. Module 2: Reasoning (Chain-of-Thought). Module 3: Structuur & Delimiters. Module 4: Persona & Tone of Voice.
Een veelgemaakte fout is denken dat je het model 'traint' als je ermee chat. Dat is niet zo. Het model leert niet permanent, maar past zich wel aan binnen het huidige gesprek (Context Window). Dit noemen we In-Context Learning. De krachtigste techniek hierbij is het geven van voorbeelden.
Je vraagt het model iets te doen zonder voorbeelden. Dit werkt prima voor simpele taken.
Je geeft het model 1 of meer voorbeelden (shots) van wat je verwacht. Dit dwingt het model om jouw patroon, toon en formaat te volgen. Dit is cruciaal voor consistente zakelijke output.
Door de voorbeelden snapt het model direct dat je alleen "Negatief" wilt als antwoord, en geen hele volzin.
1. Wat is 'In-Context Learning'?
2. Wanneer gebruik je Few-Shot prompting?
Net als mensen hebben LLM's de neiging om 'snel en intuïtief' te antwoorden (System 1). Bij rekenvragen of logica leidt dit vaak tot fouten. We moeten het model dwingen om 'langzaam en analytisch' (System 2) na te denken.
Dit is de techniek waarbij je het model vraagt om "stap voor stap na te denken" of de tussenstappen van de berekening te laten zien.
Q: Ik heb 3 appels. Ik eet er 1. Ik koop er 5 bij. Ik geef er 2 aan Mark. Hoeveel heb ik er?
A: 6. (Vaak fout bij complexere sommen)
Q: ... Denk stap voor stap na.
A:
1. Start: 3 appels.
2. Eet 1: 3 - 1 = 2.
3. Koop 5: 2 + 5 = 7.
4. Geef 2: 7 - 2 = 5.
Antwoord is 5.
Voor zeer complexe problemen kun je het model vragen om drie verschillende oplossingsrichtingen te genereren, deze te evalueren en dan de beste te kiezen. Dit simuleert brainstormen met zichzelf.
1. Wat triggert de 'Chain-of-Thought' methode?
2. Waarvoor is CoT vooral nuttig?
Een model ziet je prompt als één lange brij tekst. Als je instructies en je data door elkaar laat lopen, raakt het model in de war. Gebruik Delimiters (scheidingstekens) om secties duidelijk te markeren.
Vat de tekst samen die tussen drie aanhalingstekens staat.
Tekst: """
Hier komt een heel lang verhaal over...
"""
Goede delimiters zijn: """, ###, ---, of XML tags zoals <tekst> en </tekst>.
Wil je de output automatisch verwerken in Excel of een app? Vraag dan specifiek om formaten zoals JSON, CSV of Markdown Tabel.
1. Wat is een Delimiter?
2. Welk formaat is handig voor data-verwerking?
Zonder instructie is ChatGPT een neutrale, behulpzame assistent. Maar soms wil je een specialist. Door een Persona aan te nemen, verandert het model zijn woordkeuze, kennisniveau en toon.
Een goede persona-prompt bevat:
Je kunt AI zelfs vragen om een specifiek persoon na te doen (bijv. Steve Jobs) of een rol in een rollenspel (bijv. 'jij bent de sollicitant, ik ben de recruiter').
1. Waarom definieer je een Persona?
2. Welk element hoort NIET in een goede Persona prompt?
Beantwoord minimaal 80% van de vragen correct om je certificaat te ontvangen (20 vragen, minimaal 16 goed).
1. Wat is Few-Shot Prompting?
2. Wat is het doel van Chain-of-Thought (CoT)?
3. Wat is een voordeel van het gebruik van Delimiters (b.v. ###)?
4. Wat is In-Context Learning?
5. Welk output formaat is het beste voor verwerking door andere software?
6. Wat bedoelen we met 'Zero-Shot'?
7. Wat is een 'System Prompt'?
8. Hoe verminder je hallucinaties (verzinsels)?
9. Wat is Tree-of-Thought?
10. Waarom is 'Tone of Voice' specificeren belangrijk?
11. Wat is 'Priming'?
12. Is een LLM deterministisch (geeft het altijd hetzelfde antwoord)?
13. Wat is prompt injection?
14. Wanneer gebruik je een XML tag zoals <context>?
15. Wat is Self-Consistency?
16. Waarom werken negatieve constraints ('Doe NIET...') vaak minder goed?
17. Wat is de beste aanpak voor complexe taken?
18. Wat is 'Generated Knowledge Prompting'?
19. Hoe noem je het fenomeen dat een model aan het einde van een lange prompt de begin-instructies vergeet?
20. Wat is het belangrijkste principe van Prompt Engineering?