ChatGPT jailbreak prompts: wat zijn het en hoe werken ze? + Voorbeelden
Je gebruikt ChatGPT al een tijdje en je hebt gemerkt dat het model soms dingen niet wil zeggen of doen. Misschien ben je toen termen tegengekomen als jailbreak prompt, DAN, Dev Mode of van overlevenden van een vliegtuigcrash op een bewoond eiland. In dit artikel ...
Lees verder