Eerste uitspraak Afdeling Bestuursrecht over ChatGPT: (nog) geen alternatief voor een deskundige, maar het gebruik ervan wordt ook (nog) niet uitgesloten

Article
NL Law
Expertise

ChatGPT is in opmars in de rechtszaal. Steeds meer partijen beschouwen ChatGPT en andere AI-tools als snel en toegankelijk hulpmiddel, ook bij juridische procedures. Tegelijkertijd bestaan er ook terechte zorgen over de betrouwbaarheid ervan. Daarom is het zeer te waarderen dat de Afdeling Bestuursrechtspraak in haar uitspraak van 29 januari 2025 expliciet aandacht besteedt aan het gebruik van ChatGPT. In dit blog bespreken we onze eerste observaties.

Voorliggende zaak: planschadebesluit gebaseerd op een deskundigenoordeel ter discussie gesteld met onder meer ChatGPT

In deze zaak in hoger beroep beoordeelt de Afdeling Bestuursrechtspraak van de Raad van State ("Afdeling") een besluit van het college om planschade toe te kennen vanwege een gewijzigd bestemmingsplan in Noord-Limburg. De door het bestemmingsplan benadeelde appellant, Aleto, was het niet eens met de hoogte van de toegekende planschade. De schadevergoeding was vastgesteld op basis van een advies van deskundig taxateur dat in opdracht van het college was opgesteld. De rechtbank had vervolgens voor de beoordeling daarvan een taxatierapport gevraagd aan zijn eigen deskundige, de STAB. Op grond daarvan was de rechtbank tot het oordeel gekomen dat de vastgestelde schadevergoeding redelijk was. In het hoger beroep betwistte Aleto dit oordeel en het daaraan ten grondslag liggende deskundigenoordeel van de STAB. 

Aleto meende dat de taxateur een onjuiste vergelijking heeft gemaakt, omdat de gekozen objecten op een belangrijke factor (de milieucategorie) zouden afwijken. Kort voor de zitting in hoger beroep diende Aleto een aanvullend stuk in met een toelichting over de invloed van deze specifieke factor op de waarde van bedrijventerreinen in Noord-Limburg. Tijdens de zitting werd duidelijk dat Aleto deze informatie had verkregen via ChatGPT.

De uitspraak: betoog appellant, waaronder output ChatGPT, biedt onvoldoende tegenwicht tegen oordeel deskundigen

De Afdeling bevestigt het eerdere oordeel van de rechtbank dat de toegewezen planschade passend was. De argumenten van Aleto, inclusief de informatie die verkregen was met ChatGPT, waren onvoldoende om de besluitvorming of de deskundigenrapporten onderuit te halen. De Afdeling verwijst hierbij naar een eerdere overzichtsuitspraak over de beoordeling van planschade en de waarde van taxatierapporten opgesteld door deskundigen (ABRvS 28 september 2016, ECLI:NL:RVS:2016:2582). Daarin is verduidelijkt dat taxatierapporten veel waarde toekomen, omdat niet alleen de gebruikte taxatiemethode, maar ook de 'kennis en ervaring' van de deskundige een rol spelen. Een taxatierapport dat ten grondslag ligt aan een besluit van het college of de rechtbank kan daarom in beginsel alleen succesvol worden bestreden met een tegenrapport van een andere onafhankelijke deskundige taxateur. Daarin moet dan worden aangetoond dat en waarom het bestreden taxatierapport inhoudelijk onjuist is. De stukken van Aleto, waaronder de met ChatGPT gegenereerde informatie, voldeden volgens de Afdeling niet aan deze maatstaf: Aleto heeft geen tegenrapport overgelegd. De Afdeling stelt daarbij ook expliciet dat het geen aanleiding ziet om van deze maatstaf af te wijken. Daarnaast merkt de Afdeling specifiek op dat de met ChatGPT opgestelde informatie 'geen duidelijke vraagstelling' bevatte, 'geen bronvermeldingen' had en 'expliciet aangaf dat voor een nauwkeurige analyse een deskundige taxateur moest worden geraadpleegd'.

Afwijzend oordeel past binnen de betekenis van deskundigen in het bestuursrecht

In deze uitspraak maakt de Afdeling duidelijk dat de specifiek in deze zaak aangevoerde informatie, waaronder de door ChatGPT gegenereerde informatie, niet volstaat om een deskundigenrapport te weerleggen.

Dit oordeel past goed binnen de algemene rechtspraak over deskundigen: een burger die een deskundig oordeel wil aanvechten, moet doorgaans zelf ook met een oordeel van een deskundige komen. Deze moet dan bovendien ook aan hoge eisen van deskundigheid, onafhankelijkheid en transparantie voldoen. Daarnaast moet dit deskundigenoordeel specifiek duidelijk maken waarom het rapport van het bestuursorgaan inhoudelijk onjuist is (zie ook D.A. Verburg, ‘Bestuursrechtspraak in balans’, Den Haag: Boom juridisch 2019). Hoewel deze eisen hoog zijn, zijn ze verklaarbaar door de bijzondere status van deskundigen in het bestuursrecht. Overheidsbesluiten steunen vaak op deskundigeninbreng, waarbij het bestuursorgaan moet zorgen dat de inhoud relevant, concludent en inzichtelijk is en het rapport zorgvuldig tot stand is gekomen, conform art. 3:2 Awb (zie bijvoorbeeld ABRvS 30 juni 2017, ECLI:NL:RVS:2017:1674). Ook de bestuursrechter mag doorgaans op een deskundigenoordeel vertrouwen, tenzij blijkt dat het onzorgvuldig tot stand is gekomen of dusdanige gebreken vertoont die het ongeschikt maken als basis voor een rechterlijk oordeel (zie hierover Afdelingsuitspraak 11 januari 2023, ECLI:NL:RVS:2023:96 zoals eerder ook gesignaleerd in Stibbeblog).

Goed dat er aandacht wordt besteed aan de rol van ChatGPT in de rechtszaal, maar nog meer duidelijkheid is gewenst 

Het is zeer te waarderen dat de Afdeling in deze uitspraak expliciet aandacht besteedt aan het gebruik van ChatGPT. Gezien de onstuitbare opkomst van AI in de juridische praktijk lijkt dit de enige juiste weg: het is goed dat deze ontwikkeling in het bestuursrecht wordt erkend en in goede banen wordt geleid. Wij denken dan bijvoorbeeld ook aan de eerdere maatschappelijke ophef over de rechter die ChatGPT gebruikte bij het schrijven van zijn vonnis.

Tegelijkertijd voelt deze uitspraak ook een klein beetje als een gemiste kans, omdat het oordeel over ChatGPT en de waarde ervan nog uitgebreider had gekund. De Afdeling stelt expliciet dat de informatie van ChatGPT in dit specifieke geval onvoldoende is om een deskundigenoordeel terzijde te schuiven. Toch wijst zij het gebruik ervan niet volledig af. Hierdoor blijft er ruimte voor partijen om stukken van ChatGPT in hun argumentatie te verwerken, mits de vraagstelling (prompts) wordt vermeld en ChatGPT aangeeft op welke bronnen het antwoord is gebaseerd. Ook dan blijft echter de vraag welke juridische waarde hieraan kan worden toegekend. Naar ons idee kan ChatGPT geen deskundige vervangen, omdat het (vooralsnog) geen eigen kennis en ervaring heeft, maar slechts bestaande bronnen reproduceert—of zelfs, in het ergste geval, hallucineert. Op dit moment wordt de output van ChatGPT immers grotendeels bepaald door de input. Of dit in de toekomst verandert en of de Afdeling ChatGPT dan mogelijk als deskundige zal erkennen, zal de tijd echter moeten uitwijzen. Het zou mooi zijn als de Afdeling hier nu en in de toekomst nog meer duidelijkheid over verschaft. Wij zullen deze ontwikkelingen in ieder geval met veel belangstelling volgen.