De digitalisering verandert de toegang tot kennis fundamenteel. Met Google als ooit de poortwachter van informatie, is zelfs een zoekopdracht via die klassieke zoekmachine inmiddels bijna ouderwets. In toenemende mate wenden mensen zich tot AI-modellen als ChatGPT, die in een paar seconden antwoorden formuleren op complexe juridische vragen. En inderdaad: het antwoord dat volgt, is vaak overtuigend, helder en, voor de juridische leek, ogenschijnlijk rechtens juist. In haar uitspraak van 29 januari 2025 spreekt de Afdeling bestuursrechtspraak van de Raad van State, hierna: de Afdeling, zich uitgesproken over de mate van deskundigheid die aan het gebruik van ChatGPT kan worden toegedicht, en het gewicht dat aan AI-gegenereerde tegenrapporten in bestuursrechtelijke procedures kan worden toegekend.
Waar ging de zaak over?
In de zaak waarin Aleto als appellante optreedt, wordt haar door het bestuursorgaan een tegemoetkoming in de planschade toegekend ter hoogte van € 25.000,00. Aleto acht de vergoeding ontoereikend en verzet zich tegen de hoogte ervan.
Zij stelt dat het taxatierapport van adviesbureau Aelmans onterecht gebruik gemaakt van vergelijkingsobjecten in milieucategorie 3.2 en hoger. Deze methodologische tekortkoming zou, aldus Aleto, leiden tot een vertekend beeld van de daadwerkelijke waardeontwikkeling van het perceel. Ter toelichting van haar standpunt brengt Aleto een door ChatGPT gegenereerd aanvullend stuk in waarin zij specifiek ingaat op de invloed van de toegestane milieucategorie op de waarde van bedrijventerreinen in de regio Noord-Limburg. Met dit stuk beoogt zij aan te tonen dat haar schade als gevolg van de planologische wijziging substantieel hoger is dan het bedrag van € 25.000,00 dat is toegekend.
Hoe oordeelt de Afdeling?
De Afdeling stelt voorop dat bij de waardering van onroerende zaken niet enkel de gehanteerde taxatiemethode bepalend is, maar ook de deskundigheid en ervaring van de taxateur mede van belang zijn.1 Juist wanneer het taxatierapport steunt op specialistische vakkennis van een deskundige, kan de inhoud daarvan in beginsel slechts worden weerlegd met een deugdelijk onderbouwd tegenrapport van een andere onafhankelijke taxateur.2 Het betoog van Aleto ziet op een aspect van het rapport dat expliciet raakt aan die specialistische deskundigheid, namelijk de inschatting van de invloed van milieucategorieën op de marktwaarde van bedrijventerreinen.3
Aleto legt ter onderbouwing van haar standpunt een stuk over dat is gegenereerd door ChatGPT. De vraag die zich aandient is of een dergelijk stuk geldt als een voldoende onderbouwd tegenrapport van een onafhankelijke deskundige. De Afdeling beantwoordt die vraag ontkennend. Het door Aleto overgelegde stuk bevat geen vermelding van de vraagstelling die aan het AI-systeem is voorgelegd, noch is er sprake van enige bronvermelding ter onderbouwing van het antwoord.4 De Afdeling concludeert dat in dit geval geen sprake is van een tegenrapport afkomstig van een andere onafhankelijke deskundige, dat daarmee niet toereikend is om het bestaande rapport te weerleggen.5
Is de deur helemaal dicht voor AI?
Wat de Afdeling echter níet doet, is het gebruik van door kunstmatige intelligentie gegenereerde stukken principieel uitsluiten. De Afdeling toetst het overgelegde bewijs aan de geldende maatstaf voor een gedegen tegenrapport en oordeelt dat in dit specifieke geval niet aan die maatstaf is voldaan. Daarmee laat de Afdeling nadrukkelijk ruimte open voor de mogelijkheid dat AI-gegenereerde informatie in een ander geval wél aan de vereisten zou kunnen voldoen. Een categorische afwijzing van het gebruik van AI als bron voor deskundige onderbouwing blijft daarmee uit. Het wachten is op nieuwe jurisprudentie die deze lijn bevestigt, of ontkracht.
Een a contrario-redenering met rechtsoverweging 9.2 waarin wordt gevraagd om de vraagstelling en een bronvermelding, ligt voor de hand: indien wél duidelijk wordt gemaakt welke concrete vraag aan het AI-systeem is voorgelegd, en het gegenereerde antwoord vergezeld gaat van een verifieerbare bronvermelding, zou daarmee in beginsel eerder kunnen worden voldaan aan de gestelde eisen. Dat betekent echter niet zonder meer dat het rapport als deskundig in juridische zin wordt aanvaard. De Afdeling spreekt zich daar niet expliciet over uit, maar laat impliciet ruimte voor die mogelijkheid. De vraag rijst welke aanvullende vereisten uit de bestaande jurisprudentie zijn te abstraheren voor een stuk om als “deskundigenrapport” te worden aangemerkt. Ook rijst de vraag wat de juridische waarde is van een door AI gegenereerd stuk wanneer het niet wordt ingebracht door een leek, maar door een professional. Kan een rapport dat (deels) is opgesteld met behulp van ChatGPT dan wél gelden als een valide contra- expertise? Met andere woorden: doet het er niet alleen toe wat wordt ingebracht, maar ook door wie?
AI en contra-expertise: transparantie alleen is niet genoeg
Een deskundige contra-expertise moet voldoen aan de eisen die volgen uit het beroepsmatig handelen van de deskundige zelf.6 Dit betekent dat de betrokken deskundige gehouden is aan de beroepsnormen en de voor zijn beroepsgroep geldende gedragsregels, ongeacht de middelen waarvan hij zich bedient. Een kernvereiste voor een deskundige in het bestuursprocesrecht, verankerd in artikel 8:34 Awb, is dat deze zijn taak onpartijdig en naar beste weten uitvoert. Dit roept een fundamentele vraag op: kan een AI-systeem, en ChatGPT in het bijzonder, aan deze eis voldoen?
Hoewel AI op het eerste gezicht neutraal en consistent lijkt te opereren, is het in wezen afhankelijk van mensenwerk. De algoritmes die dergelijke systemen aansturen, zijn ontwikkeld, getraind en vormgegeven door mensen. Tijdens dat proces zijn keuzes gemaakt: over de selectie van trainingsdata, de structuur van het model en de wijze van optimalisatie. Die keuzes kunnen onbewust vooroordelen bevatten en leiden tot systematische vertekeningen, biases, die moeilijk te detecteren zijn. Bovendien is AI vaak een zogenoemde ‘black box’: gebruikers zien de output, maar hebben weinig tot geen inzicht in de achterliggende afwegingen en tussenstappen. Daarmee ontbreekt een essentieel element dat juist binnen het bestuursrecht van groot belang is: transparantie en controleerbaarheid.
Zo stuit het gebruik van AI als deskundige op een fundamenteler obstakel: de kernwaarden die gelden voor gerechtelijk deskundigen.7 Deze gedragscode schrijft voor dat een deskundige moet handelen op basis van onafhankelijkheid, onpartijdigheid, zorgvuldigheid, vakbekwaamheid en integriteit. Het ligt, gelet op het voorgaande, voor de hand dat een AI-systeem, zoals ChatGPT, op dit moment niet zelfstandig aan deze normen kan voldoen. Althans, dat kan niet worden aangetood. Opnieuw, de “black box”. Om te kunnen duiden of AI tot de juiste conclusie komt, is er menselijke controle nodig waarvan gezegd kan worden dat deze voldoet aan de vereisten aan een deskundige. Dit zou het gebruik van een door AI gegenereerd tegenrapport kunnen valideren.
Was de Afdeling tot een ander oordeel gekomen indien niet Aleto zelf, maar een erkend deskundige het zelfde stuk zou hebben ingediend; zou het enkele feit dat een deskundige zijn naam eraan verbindt, de inhoud van het stuk meer gezag hebben verleend? Deze gedachte is niet zonder belang. In het bestuursprocesrecht speelt de status van een deskundige immers een rol bij de bewijswaardering. Wanneer een partij zelf een stuk indient zonder enige toelichting of controleerbare context, wordt het kritisch bekeken. Wordt hetzelfde stuk echter ingebracht door een deskundige – die geacht wordt kennis te hebben van het vakgebied en zorgvuldig te werk te gaan – dan komt het rapport in een ander daglicht te staan. De deskundige fungeert als een soort filter: hij beoordeelt de bruikbaarheid van AI en neemt verantwoordelijkheid voor de inhoud.
AI is niet het probleem, het gebrek aan menselijke juridische toetsing wel
Het probleem van AI is niet het gebruik ervan op zich, het probleem schuilt in de beperkte menselijke controle. Indien een partij in staat is om, naast het AI-gegenereerde stuk, inzichtelijk te maken welke concrete vraag is gesteld en welke bronnen zijn gebruikt of geraadpleegd in het gegenereerde antwoord, zou er ruimte ontstaan voor een meer serieuze beoordeling van de inhoud als deskundig tegenrapport. In die zin fungeert rechtsoverweging 9.2 niet als afwijzing, maar als routekaart. Ben je verwikkeld in een juridische procedure en loop je vast, zelfs met inzet van AI? Neem dan contact op met één van de specialisten van DOKK Advocaten.