ChatGPT is geen bron maar een methodologie, en daarmee basta

donderdag, 6 november 2025 (11:01) - Nederlands Juristenblad

In dit artikel:

De kernstelling: ChatGPT en soortgelijke grote taalmodellen zijn géén bronnen maar methodologische instrumenten. Juristen gebruiken deze diensten massaal als zoekinstrument, tekstmaker en filter, maar het idee dat uitvoer van een taalmodel als bron kan fungeren moet bestreden worden omdat het fundamenteel misleidend is. Bronnen vervullen drie functies — het plaatsen van onderzoek in bestaand debat, het legitimeren van beweringen en het mogelijk maken van controle — en geen van die functies wordt door ChatGPT vervuld. De output weerspiegelt een synthetische schijn van consensus, levert geen traceerbare herkomst en maakt verificatie onmogelijk (onder meer vanwege bekende hallucinaties: verzonnen arresten en literatuurverwijzingen).

Dat betekent niet dat AI geen plaats heeft in rechtswetenschappelijk werk. Het artikel pleit ervoor taalmodellen te beschouwen als een hulpmiddel in het bouwproces van een betoog: ordenen, structureren en uitwerken van teksten — een methode naast bijvoorbeeld literatuurstudies of rechtsvergelijking. Het cruciale verschil is dat het gebruik van zo’n methode expliciet verantwoord moet worden. Waar andere disciplines vanzelfsprekend methodologische paragrafen opnemen, wordt dat in de rechtswetenschap nog te vaak weggelaten — uit vrees voor verlies aan retorische kracht, uit het idee dat recht apart staat van wetenschap, of door gebrek aan methodologische vaardigheid.

Praktische consequenties: wie ChatGPT inzet moet transparant zijn over context en werkwijze. Dat omvat onder meer de gebruikte prompts en vervolgvragen, eigen documenten die aan het model zijn gevoed, gemaakte correcties, en technische metadata zoals datum van gebruik, modelversie en dienstverlener. Alleen met zo’n spoor kunnen lezers reconstructie en toetsing uitvoeren en beoordelen of de resultaten betrouwbaar en relevant zijn. Sommige rechtscolleges beginnen dat te erkennen: de Raad van State oordeelde recent dat een overgelegd stuk ChatGPT-uitvoer zonder inzage in vraagstelling en totstandkoming geen waarde heeft; lagere rechtspraak toont vergelijkbare scepsis wanneer prompt en context ontbreken.

Het artikel waarschuwt dat voetnoten die kort aangeven “gebruik van ChatGPT” onvoldoende zijn: het gaat om methodologische verantwoording, niet om bronvermelding. Wel kan meer transparantie over de herkomst van AI-uitvoer de kwaliteit van onderzoek verbeteren — vergelijkbaar met het verschil tussen algemene zoekmachines en gespecialiseerde juridische databanken — maar dat verandert niets aan het wezenlijke onderscheid tussen bron en werkwijze. Conclusie: ChatGPT is een steiger bij de bouw van het betoog: nuttig, maar betekenisloos zonder de expliciete verantwoordelijkheid en methodologische verantwoording van de onderzoeker. (Artikel gepubliceerd in NJB 2025/2454; illustratie gemaakt met behulp van AI.)