Les 5: verschillende technieken en parameters

Deze les gaat in op meer geavanceerde technieken. Je kunt overwegen om direct door te gaan naar les 6.

Doel van deze les

  • Je bent bekend met meer geavanceerde technieken die de manier waarop de LLM resultaten genereert beïnvloeden.

LLMs hebben enkele parameters die je kunt beïnvloeden. Deze hebben invloed op de manier waarop het resultaat wordt gegenereerd. Het begrijpen van deze parameters kan helpen de output van het model effectief te sturen. Hier zijn enkele van de belangrijkste parameters:

  1. Temperatuur (Temperature): Deze parameter regelt de mate van willekeur in de gegenereerde tekst. Een lagere temperatuur (bijv. 0,2) leidt tot meer voorspelbare en conservatieve antwoorden, terwijl een hogere temperatuur (bijv. 0,8) leidt tot meer variatie en creativiteit in de antwoorden.
  2. Max Tokens: Hiermee kan je het maximum aantal tokens (woorden of tekens) beperken in de gegenereerde tekst. Dit kan handig zijn om de lengte van de output te beheersen.
  3. Frequency Penalties: Je kunt frequency penalties gebruiken om de herhaling van specifieke woorden of zinsdelen in de gegenereerde tekst te verminderen.
  4. Presence Penalties: Presence penalties kunnen worden gebruikt om ervoor te zorgen dat specifieke woorden of zinsdelen vaker in de gegenereerde tekst voorkomen.
  5. Bestaat Uit (Completions): Dit kan worden gebruikt om aan te geven hoe je wilt dat het model de gegenereerde tekst structureert. Bijvoorbeeld, “Schrijf een samenvatting van” kan aangeven dat het volgende deel een samenvatting moet zijn.
  6. Max Characters: Dit is een alternatieve manier om de lengte van de gegenereerde tekst te beperken door het maximum aantal tekens op te geven.
  7. Stop Sequences: Je kunt stopsequenties definiëren om aan te geven wanneer het model moet stoppen met genereren. Dit is handig om te voorkomen dat de tekst te lang wordt.

Het is belangrijk om te experimenteren met deze technieken om de gewenste output te bereiken. Je kunt de temperatuur en max tokens aanpassen om de balans te vinden tussen creativiteit en controle. Houd er rekening mee dat te veel beperkingen de creativiteit van het model kunnen belemmeren, terwijl te weinig beperkingen de output onvoorspelbaar kunnen maken.

Succes is niet gegarandeerd. Mijn ervaring met deze parameters is dat ChatGPT ze niet altijd goed begrijpt. Er lijkt ook geen standaard manier te zijn om ze te formuleren. Je kunt in een prompt aangeven: ‘Instructiedeel: beantwoord de volgende vraag met lage temperatuur en max tokens 50’ en daarna een vraag stellen.

In praktijk werken de parameters elkaar soms tegen, en LLMs blijken dan niet al te gedisciplineerd. Ze gebruiken bijvoorbeeld toch meer woorden dan aangegeven, doordat ze voorrang geven aan een andere parameter zoals Temperatuur. Die kan er immers toe leiden dat ze meer tekst nodig hebben voor goede resultaten.

Voorbeeld

Klik op onderstaande prompts om een voorbeelden te zien.

Prompt: ‘Geef een voorbeeld van een prompt die gebruik maakt van de parameters Temperatuur en Max Tokens’

Resultaat: Natuurlijk, hier is een voorbeeld van een prompt die gebruikmaakt van de temperatuur- en max tokens-parameters:
Prompt: “Schrijf een korte samenvatting van de werking van zonnepanelen met een lage temperatuur en beperk de samenvatting tot maximaal 50 woorden.”
In dit voorbeeld worden de parameters als volgt toegepast:
Temperatuur: Door de temperatuurparameter op een laag niveau te zetten, zoals 0,2, wordt de tekst meer deterministisch en zal het model waarschijnlijk een zeer precieze samenvatting genereren.
Max Tokens: De “max tokens” parameter is ingesteld op 50, wat betekent dat de gegenereerde samenvatting beperkt is tot een maximum van 50 woorden.

Prompt: ‘Geef een voorbeeld van een prompt die al bovenstaande parameters expliciet meegeeft.’

Resultaat: Natuurlijk, hier is een voorbeeld van een prompt waarbij verschillende parameters expliciet worden meegegeven:

Instructie (Instruction): “Schrijf een korte, creatieve samenvatting (maximaal 50 woorden) van het boek ‘De Avonturen van Alice in Wonderland’ door Lewis Carroll, waarbij je aandacht besteedt aan de humor en de absurde gebeurtenissen. Houd de tekst leuk en luchtig.”

Temperatuur (Temperature): 0.5 (Matige willekeurigheid, niet te conservatief of te creatief)

Max Tokens: 50 (Beperk de samenvatting tot maximaal 50 woorden)

Frequency Penalties: Vermijd herhaling van de namen van de personages en locaties.

Presence Penalties: Zorg ervoor dat de woorden ‘humor’ en ‘absurd’ minstens één keer voorkomen in de tekst.

Stop Sequences: [“Einde samenvatting:”, “Einde tekst:”] (Geeft aan dat het model moet stoppen na de samenvatting)

Deze prompt is bedoeld om een korte, boeiende samenvatting van het boek ‘Alice in Wonderland’ te genereren met enkele specifieke instructies en beperkingen om de kwaliteit en stijl van de samenvatting te beïnvloeden. Door de verschillende parameters en instructies te gebruiken, kunt u de gewenste output nauwkeurig aanpassen aan uw behoeften.

Het resultaat van de laatste prompt (die dus door ChatGPT zelf gegenereerd is als voorbeeld):

De Avonturen van Alice in Wonderland, geschreven door Lewis Carroll, nemen je mee op een waanzinnige reis vol humor en absurde gebeurtenissen. Alice valt letterlijk door een konijnenhol en belandt in een wereld waar niets is wat het lijkt. Ze ontmoet een Cheshire Cat die kan verdwijnen, een hoedenmaker die thee drinkt met een maartse haas, en de tirannieke Koningin van Harten, die haar onderdanen in kaartspellen verandert. De absurditeit stapelt zich op terwijl Alice groter en kleiner wordt, en ze navigeert door een land van doldwaze logica. Een hilarische en betoverende klassieker die jong en oud blijft boeien. Einde samenvatting: Beleef de dolle avonturen van Alice en laat je meeslepen door de humor en het absurde in dit tijdloze verhaal. Ondanks alle vreemdheid ontdek je uiteindelijk dat Wonderland eigenlijk heel logisch is – op zijn eigen gekke manier. Einde tekst.

Oefening

Blijf in gesprek met je LLM. Experimenteer met de parameters uit deze les.

Beantwoord daarna de volgende vragen:

  • Welke parameters hielpen het meest?
  • Is de uitkomst inderdaad creatiever of meer ‘hallucinant’ als je vraagt om een hoge temperatuur?

In de volgende les zullen we bespreken hoe je rekening kunt houden met de gevoeligheid voor bias bij het ontwerpen van prompts.