![1_wCKFgpHptRK_JNaGrG8RFg.jpg](https://static-lib.s3.amazonaws.com/cms/1_w_CK_Fgp_Hpt_RK_J_Na_Gr_G8_R_Fg_bb504a1d8e.jpg)
Je hebt misschien wel of niet gehoord van prompt engineering. Het komt er in feite op neer dat je 'effectief communiceert met een AI om te krijgen wat je wilt'.
De meeste mensen weten niet hoe ze goede aanwijzingen moeten ontwerpen.
Maar het wordt steeds belangrijker...
Omdat rommel erin = rommel eruit.
Hier zijn de belangrijkste technieken die je nodig hebt voor het stimuleren 👇
Ik zal een taalmodel aanduiden als 'LM'.
Voorbeelden van taalmodellen zijn ChatGPT van @OpenAI en Claude van @AnthropicAI.
1. Persona/rol aanmoediging
Een rol toewijzen aan de AI.
Voorbeeld: "Je bent een expert in X. Je hebt mensen geholpen om Y te doen gedurende 20 jaar. Jouw taak is om het beste advies te geven over X.
Antwoord 'begrepen' als dat duidelijk is."
Een krachtige add-on is de volgende:
'Je moet altijd vragen stellen voordat je antwoord geeft, zodat je beter kunt begrijpen waar de vragensteller naar op zoek is.'
Ik zal zo meteen uitleggen waarom dat zo belangrijk is.
2. CoT
CoT staat voor 'Keten van Gedachte'
Het wordt gebruikt om de LM te instrueren om zijn redenering uit te leggen.
Voorbeeld:
![1_WB-Q2Wxf3nknx7JI__KjMQ.jpg](https://static-lib.s3.amazonaws.com/cms/1_WB_Q2_Wxf3nknx7_JI_Kj_MQ_3bb907e339.jpg)
3. Zero-shot-CoT
Zero-shot verwijst naar een model dat voorspellingen maakt zonder extra training binnen de opdracht.
Ik zal zo meteen ingaan op few-shot.
Let op dat meestal CoT > Zero-shot-CoT
Voorbeeld:
![1_nRZMFzWxahlrklRoUi7bhQ.jpg](https://static-lib.s3.amazonaws.com/cms/1_n_RZM_Fz_Wxahlrkl_Ro_Ui7bh_Q_68ed4fddd8.jpg)
4. Enkele opnames (en enkele opnames-CoT)
Weinig voorbeelden is wanneer de LM een paar voorbeelden krijgt in de prompt zodat het zich sneller kan aanpassen aan nieuwe voorbeelden.
Voorbeeld:
![1_iN3wq9QBQP6s4AEPPNZrhA.jpg](https://static-lib.s3.amazonaws.com/cms/1_i_N3wq9_QBQP_6s4_AEPPN_Zrh_A_175749d281.jpg)
5. Kennisgeneratie
Genereren van vraaggerelateerde kennis door een LM te activeren.
Dit kan worden gebruikt voor een gegenereerde kennisprompt (zie verder).
Voorbeeld:
![1_SaClaqnAKa17b38ZQOra-g.jpg](https://static-lib.s3.amazonaws.com/cms/1_Sa_Claqn_A_Ka17b38_ZQ_Ora_g_736f5e7cee.jpg)
6. Gegenereerde kennis
Nu we kennis hebben, kunnen we die informatie invoeren in een nieuwe prompt en vragen stellen die verband houden met de kennis.
Een dergelijke vraag wordt een 'kennisverrijkte' vraag genoemd.
7. Zelfconsistentie
Deze techniek wordt gebruikt om meerdere redeneringspaden (gedachtegangen) te genereren.
Het meerderheidsantwoord wordt beschouwd als het definitieve antwoord.
Voorbeeld:
![1_mChc367_9PHxMwMPsNScYw.jpg](https://static-lib.s3.amazonaws.com/cms/1_m_Chc367_9_P_Hx_Mw_M_Ps_N_Sc_Yw_6389b1d13a.jpg)
8. LtM
LtM staat voor 'Van Minst naar Meest'
Deze techniek is een vervolg op CoT. Daarnaast werkt het door een probleem op te delen in deelproblemen en deze vervolgens op te lossen.
Voorbeeld:
![1_lt5xMCLKCMEOtJME_N6DGw.jpg](https://static-lib.s3.amazonaws.com/cms/1_lt5x_MCLKCME_Ot_JME_N6_D_Gw_a106d037ed.jpg)