Spring naar hoofdinhoud
AI Practical

Advocaten worden steeds vaker betrapt op het gebruik van niet-bestaande rechtszaken, met potentieel verregaande gevolgen voor het rechtssysteem en jouw juridische bescherming

Heb je ooit de vraag gesteld: wat als de technologie die ons zou moeten helpen, juist onze grootste nachtmerrie wordt? Stel je voor dat je je zaak in handen hebt van een advocaat die AI inzet voor razendsnelle documentencreatie. Dit klinkt als een knap staaltje innovatie, maar wat als diezelfde juridische documenten vol fictieve citaten zitten? Het gebeurt, en dat baart zorgen over de betrouwbaarheid van AI in onze rechtbanken.

Een onderzoek door juridisch data-expert Damien Charlotin heeft schokkende inzichten aan het licht gebracht. Sinds mei 2025 hebben rechters in kort tijdsbestek maar liefst 23 incidenten van zogenaamde AI-hallucinaties in juridische documenten ontdekt. Schokkend is dat het niet enkel onervaren burgers zijn die de vallen van AI ingaan – nee, zelfs getrainde advocaten en juridische professionals missen de tekens. Dit fenomeen zet vraagtekens bij de integriteit van ons rechtssysteem in een tijd waarin technologie en recht steeds nauwer verweven zijn.

In dit artikel duiken we dieper in deze zorgwekkende trend, verkennen we praktijkvoorbeelden met ernstige gevolgen, en bespreken we hoe we onszelf kunnen beschermen in dit veranderende juridische landschap. Of je nu een juridische professional bent of een leek, deze inzichten zijn van belang voor iedereen die ooit met het recht in aanraking komt. Laten we ontdekken hoe we met verantwoordelijkheid kunnen navigeren door de wereld van AI in onze juridische praktijk.

De Schaduwkant van AI in de Rechtspraak

Stel je voor: je vertrouwt je juridische zaak toe aan een advocaat die AI gebruikt om documenten te genereren. Je voelt je gerustgesteld door de snelheid en moderniteit van de technologie. Maar plotseling ontdek je dat de juridische citaties die je verdediging ondersteunen, volledig verzonnen zijn. Dit scenario is helaas realiteit aan het worden, en het roept ernstige vragen op over de betrouwbaarheid van AI in ons rechtssysteem.

De ontdekking van AI-hallucinaties in juridische documenten door juridisch data-expert Damien Charlotin benadrukt een verontrustende trend. Sinds mei 2025 hebben rechters in slechts vier weken tijd maar liefst 23 van dergelijke hallucinaties geïdentificeerd. Wat bijzonder zorgwekkend is: in 13 van deze gevallen waren het niet onervaren burgers die verantwoordelijk waren voor de fouten, maar juist getrainde advocaten en juridische professionals. Dit fenomeen vormt een gevaar voor de integriteit van ons rechtssysteem in een tijdperk waar technologie en recht onlosmakelijk met elkaar verbonden zijn.

Wat Zijn AI-Hallucinaties?

AI-hallucinaties verwijzen naar de verrassende en vaak gevaarlijke neiging van AI-systemen om fictieve rechtszaken, wetten en juridische precedenten te produceren. De verhalen van niet-bestaande rechters en uitspraken worden op een overtuigende manier gepresenteerd, waardoor ze makkelijk geloofwaardig lijken. Maar hoe gebeurt dit?

Moderne AI-systemen zoals ChatGPT en Claude zijn ontworpen om tekstpatronen na te bootsen op basis van hun training. Ze bezitten echter geen intrinsiek begrip van wat waar of echt is. “Wat ze doen, is werken met waarschijnlijkheden en niet met feiten,” verklaart William Saunders, voormalig ingenieur bij OpenAI. Dit gebrek aan feitelijk begrip kan leiden tot situaties waarin AI een juridisch document schrijft dat met zekerheid onjuiste informatie bevat.

De problematiek wordt verergerd door de recente vooruitgang in AI-technologie. De nieuwste modellen, bedoeld om geavanceerdere vragen aan te pakken, brengen paradoxaal genoeg meer onjuistheden voort. OpenAI’s nieuwste model, o4-mini, bijvoorbeeld, heeft een schrikbarend hoog hallucinatiepercentage van 79% voor specifieke vraagtypen. Dit is een onthutsend cijfer voor een tool die in professionale omgevingen, waarin nauwkeurigheid van belang is, wordt gebruikt.

Praktijkvoorbeelden van AI-Hallucinaties

De impact van AI-hallucinaties beperkt zich niet tot kleine, onbelangrijke juridische fouten. Ze kunnen leiden tot aanzienlijke juridische en financiële gevolgen. Zo kregen twee advocatenkantoren in februari 2025 een recordboete van $31.000, opgelegd door voormalig federaal magistraat Michael R. Wilner. De reden? Ze hadden een document ingediend met meerdere valse en misleidende citaten. “De citaties wekten bijna de indruk dat de zaak van eisers valide was – tot ik deze verder onderzocht en hun niet-bestaan ontdekte. Dat is angstaanjagend,” gaf Wilner toe in zijn vonnis.

In april 2025 werd het gerenommeerde advocatenkantoor Latham & Watkins slachtoffer van een soortgelijk incident. Terwijl zij het AI-bedrijf Anthropic verdedigden, gebruikte het kantoor Anthropic’s eigen Claude-tool voor het opstellen van een expert-verklaring. De AI veranderde echter cruciale auteursnamen en titels van papers, wat de tegenpartij ertoe aanzette de hele verklaring van tafel te vegen. “Het verschil tussen een gemiste en een door AI gegenereerde hallucinatie is enorm, en dat weten we allemaal,” merkte federaal magistraat Susan van Keulen op tijdens de hoorzitting.

De Juridische Apocalyps: Cases Uit de Praktijk

Het ontdekken van AI-hallucinaties in juridische documenten is niet zomaar een technologische glitch die kan worden genegeerd; het heeft reële en verontrustende consequenties. Het voorbeeld van de boetes opgelegd door de voormalige federale magistraat Michael R. Wilner is veelzeggend. Twee advocatenkantoren werden erop betrapt een processtuk te hebben ingediend vol met verzonnen citaten. Dit zijn geen marginale geschiedenissen die als voetnoten in de juridische annalen verdwijnen. Nee, het zijn de drijvende krachten achter een fundamentele verschuiving in hoe we juridische precisie benaderen in het AI-tijdperk.

De Gevallen van Boetes en Verlies van Vertrouwen

Wilner beschreef hoe de valse citaten hem deden geloven dat de eisers een solide zaak hadden opgebouwd, totdat hij de moeite nam om de referenties te controleren. Dit incident toont aan hoe gemakkelijk AI-systemen, onbedoeld, misleiding kunnen creëren die zelfs ervaren juristen in verwarring kan brengen. Het is beangstigend te bedenken dat een systeem, dat met niets minder dan absolute zekerheid moet opereren, zulke cruciale fouten kan begaan in juridische documenten.

Ook zien we hoe rampzalig de impact kan zijn op de reputatie van prestigieuze advocatenkantoren. Neem bijvoorbeeld het geval van Latham & Watkins. Dit kantoor, ondanks zijn status en naam, werd een slachtoffer van hun eigen cliënt’s technologie. Door hun vertrouwen in de AI-generator Claude van Anthropic te plaatsen, werden ze geconfronteerd met vervalsingen die hun juridische documenten waardeloos maakten. Dit incident benadrukt de paradox van vooruitgang: dat de technologie die bedoeld is om te helpen, soms net diegene is die schaadt.

Implicaties Voor de Juridische Veiligheid

Deze gevallen vragen om een herbezinning op hoe professionele integriteit moet worden gewaarborgd in een wereld waar AI-inzichten op elk moment kunnen worden betwijfeld. De juridische veiligheid van individuen hangt namelijk sterk af van de betrouwbaarheid van hun vertegenwoordiging en de authenticiteit van juridische documenten. Wanneer advocaten AI blind vertrouwen, ontstaat het risico dat juridische strategieën gebouwd worden op luchtkastelen.

Dit risico is niet beperkt tot de grote advocatenhuizen. Ook zelfstandige advocaten en kleinere juridische instellingen gebruiken steeds vaker goedkope of gemakkelijk toegankelijke AI-tools. Echter, niet ieder van hen heeft de middelen om de output rigoureus te controleren. Hierdoor lopen ook kleine zaken of alledaagse juridische handelingen het gevaar om in de val van fictieve legaliteit te vallen.

In deze toegenomen risico omgeving, is het cruciaal dat cliënten zich bewust zijn van hoe technologische veranderingen de juridische sector beïnvloeden, en dat zij actief vragen beginnen te stellen over het gebruik van AI in hun zaken. Het is essentieel dat mensen vragen naar de verificatie van bronnen en de transparantie van hun juridische vertegenwoordigers. Op die manier kan men nog enige controle behouden over een werkelijkheid die zich steeds meer in de digitale sfeer bevindt.

Maatregelen en Vooruitzichten: Hoe Te Beveiligen Tegen AI-Hallucinaties

Het risico dat AI-hallucinaties met zich meebrengen vraagt om proactieve actie van zowel de juridische sector als de cliënten zelf. Wat kun jij doen om jezelf te wapenen tegen de valkuilen van onbetrouwbare AI-informatie?

Hoe Je Jezelf Kunt Beschermen

Er zijn enkele concrete stappen die je kunt nemen om te zorgen dat jij niet slachtoffer wordt van AI-misleidingen:

  • Vraag expliciet naar AI-gebruik: Zorg ervoor dat je altijd in gesprek gaat met je advocaat over het gebruik van AI in jouw zaak. Wees niet bang om te vragen welke technologieën er worden toegepast en op welke manier.

  • Verifieer bronnen en citaties: Vertrouw niet blindelings op juridische documenten. Vraag om details en controleer cruciale bronnen zelf. Als een juridisch document gebaseerd is op een specifiek precedent of een uitslag, vraag dan om een grondige uitleg en verificatie van dat bewijs.

  • Zoek naar transparantie en verantwoording: Werk samen met juridische professionals die open zijn over hun gebruik van AI en die een robuust systeem hebben voor het verifiëren van de door AI gegenereerde informatie.

De Rol van Juridische Professionals

De juridische gemeenschap kan niet stil blijven zitten. Aanpassingen zijn nodig om deze tools beter te integreren in het rechtssysteem en om de waarborg voor accuratesse te verstevigen:

  • Verplichte rapportage: Sommige rechtbanken hebben al een stap genomen richting het verplicht rapporteren van AI-gebruik. Deze praktijk helpt zowel rechters als andere partijen om bewust te zijn van potentiële AI-invloeden en om beter geïnformeerde beslissingen te kunnen maken.

  • Opleiding en bewustzijn: Juridische opleidingen moeten aandacht besteden aan de risico’s en beperkingen van AI in de praktijk. Het betrekken van AI-expertise in juridische curricula kan ervoor zorgen dat toekomstige advocaten uitgerust zijn om AI correct en verantwoord te gebruiken.

Op Weg Naar Verantwoordelijke AI

Hoewel de uitdagingen aanzienlijk zijn, ligt er ook een kans. AI kan de juridische wereld namelijk verrijken, maar dan alleen als het een aanvulling is op menselijke expertise. Zoals professor Eugene Volokh stelt: een waarborg voor professionaliteit moet altijd de basis blijven van de juridische praktijk. Wanneer advocaten hun verantwoordelijkheden laten verdringen door machines, komt een kernwaarde van het rechtssysteem – betrouwbaarheid – in gevaar.

Om te navigeren door dit nieuwe juridische landschap, is het cruciaal dat zowel advocaten als cliënten actief betrokken blijven bij het valideren van informatie en het kritisch evalueren van AI-tools. Vertrouw op je oordeel en wees niet bang om vragen te stellen. Want uiteindelijk is de bescherming van juridische veiligheid een verantwoordelijkheid van ons allemaal.

AI in de rechtspraak biedt onmiskenbare voordelen, maar zoals we hebben gezien, kan het blind vertrouwen erop ook desastreuze uitkomsten hebben. De schokkende AI-hallucinaties die door Damien Charlotin werden onthuld, benadrukken de noodzaak om technologie meer verantwoord te integreren in ons rechtssysteem. Of het nu gaat om verloren juridische kwesties of het beschadigen van beroepsmatige integriteit, de gevolgen zijn te groot om te negeren.

Als juridisch professional of cliënt is het van essentieel belang om kritisch te blijven. Vraag actief naar de rol van AI in jouw juridische processen en wees niet bang om door te vragen over de verificatie van bronnen. Transparantie en voortdurende opleiding zijn sleutels tot een veilige toekomst binnen het juridische domein.

Ben je bezorgd om de impact van deze technologie op jouw juridische bescherming? Deel dit artikel met vrienden en collega’s om bewustzijn te creëren over de risico’s en verantwoordelijkheden. Door te delen en te informeren, kunnen we gezamenlijk navigeren in het veranderende landschap van AI en recht. Blijf betrokken, blijf geïnformeerd, en laten we samen streven naar een verantwoordelijk gebruik van AI in onze rechtspraak.