Spotlight

De gordiaanse knoop die generatieve AI heet

| Rense Kuipers

Examencommissies op de UT zitten met de handen in het haar sinds de opkomst van generatieve kunstmatige intelligentie. Meldingen van fraude kunnen nauwelijks gecontroleerd worden, niet elke docent blijkt even handig en sommige studenten zijn té handig. ‘We zijn de afgelopen anderhalf jaar nauwelijks iets opgeschoten.’

Studentcolumnist Jenna Zaagsma gooide enkele weken geleden een steen in de vijver, met een column getiteld #FreeTheExamBoard. Marleen Groenier, voorzitter van de examencommissie van technische geneeskunde en van de assembly van alle examencommissies sloeg direct aan op die column. ‘Als we het hebben over generatieve AI gaat heel veel over hoe we verwachten dat studenten ermee werken, of hoe wetenschappers publicaties mooier kunnen maken of subsidievoorstellen scherper en kansrijker. Maar het perspectief van de examencommissie ontbreekt in dat hele verhaal. Want red de examencommissies van generatieve AI, dat is precies wat het is.’

Want ChatGPT, Gemini, Claude, Copilot en sinds kort het Chinese DeepSeek… Generatieve AI is nauwelijks nog weg te denken. Groenier schetst hoe problematisch dat is voor examencommissies. ‘In mijn eigen examencommissie is het al langere tijd gewoon een vast punt op de agenda, dat is veelzeggend. Er zijn wel richtlijnen aan de voorkant en we zien dat docenten bezig zijn met wat wel en niet mag op het gebied van generatieve AI. Maar ik denk nog niet dat generatieve AI een goede plek heeft in ons onderwijs op dit moment. Natuurlijk zitten we in een lerende organisatie, maar het valt me wel op dat we de afgelopen pakweg anderhalf jaar eigenlijk nauwelijks iets zijn opgeschoten.’

'Elke keer als er weer een casus binnenkomt, zitten we met onze handen in het haar' - Marleen Groenier

Wantrouwen bij elke geschreven tekst

In de praktijk, bij vermoeden van fraude, doet een docent melding bij de examencommissie. Maar zo’n melding, daar kan de examencommissie nagenoeg niks mee, zegt Groenier. ‘Er zijn wel plagiaat- of AI-checkers, maar de nauwkeurigheid van de detectie van deze software is bagger. En dan is er ook nog een arms race tussen die software en de generatieve AI-software zelf, die altijd een stap voorloopt. Daarnaast: soms wordt een tekst die heel goed geschreven is door een student onterecht geïdentificeerd als AI – of vice versa. Onderaan de streep kunnen we het niet of nauwelijks toetsen als examencommissie. Elke keer als er weer een casus binnenkomt, zitten we met onze handen in het haar. Het is zo’n complexe worsteling dat we een melding bijna niet meer ontvankelijk kunnen verklaren.’

Ze is bekend met een schrijnend geval, waarbij een docent studenten – ten onrechte bleek later – beschuldigde van fraude met generatieve AI. ‘Dat ging nota bene om een bacheloropdracht, dus je kunt je voorstellen dat zo’n discussie enorm hoog oploopt. De docent bood uiteindelijk zijn excuses aan. Die casus zegt iets over het gevoel dat heerst op dit moment: een soort wantrouwen dat gepaard gaat met elke geschreven tekst die wordt ingeleverd.’

Academische integriteit

Daar valt volgens Groenier niet tegenop te controleren. ‘Achteraf controleren op misbruik met generatieve AI is niet te doen. Ik denk dat we meer moeten kijken naar de voorkant, handvatten geven voor het anders vormgeven van toetsing. Ja, ik denk dat er wel degelijk een discrepantie zit tussen wat een docent doorgaans denkt te kunnen aanbieden en hoe we als examencommissie vervolgens zouden moeten beoordelen of er wel of niet gefraudeerd is.’

Met die problematiek in het achterhoofd, wat voor ‘beleid’ heeft de UT eigenlijk op het gebied van generatieve AI? Formeel gezien is het ongeoorloofd gebruik van generatieve AI fraude, daar windt artikel 6.7 van de ‘student charter’ geen doekjes om. Bovendien, kan fraude onomstotelijk aangetoond worden, dan schiet je omhoog op de zogeheten ‘sanctieladder’. De UT tilt als academische instelling bijzonder zwaar aan academische integriteit en veelplegers worden zwaarder gestraft.

Maar wanneer is er sprake van ongeoorloofd gebruik? Begint dat met ‘sparren’ met ChatGPT, of al door Microsoft Word automatisch je zinnen te laten aanvullen met een woordsuggestie? Anderhalf jaar geleden kwam een werkgroep ‘AI in onderwijs van de UT’ met een advies. Dat advies – in een notendop: docent, geef aan of je studenten kunstmatige intelligentie mogen gebruiken bij hun opdrachten. En student, geef aan als je bij een opdracht géén AI hebt gebruikt. Maar, zoals Groenier aangeeft, de worsteling is er allesbehalve door verdwenen. Het advies ligt er, maar er zijn geen specifieke AI- regels of -richtlijnen. Los van de UT-brede regel in het kader van academische integriteit – die neerkomt op ‘gij zult niet frauderen’ – is het aan de opleidingen en docenten om zelf hun grenzen aan te geven.

'Het is bijzonder moeilijk voor een examencommissie om de inhoud volledig op waarde te schatten, daarvoor zijn de opdrachten vaak te vakinhoudelijk' - Francesca Frittella

AI hub en mondelinge inspecties

Om ze daarbij te helpen, kwam CELT (het Centre of Expertise in Learning and Teaching) een paar weken geleden met een ‘AI in Education’-hub. Dat is een omgeving in Canvas voor docenten en opleidingsdirecteuren, over de fundamenten van AI in onderwijs, AI als onderwijsassistent, AI-geletterdheid en AI in de context van toetsing. ‘Deze hub moet ze helpen om proactief te reageren op de ontwikkelingen op het gebied van AI’, aldus Francesca Frittella, een van de initiatiefnemers vanuit CELT.

Ze zegt bekend te zijn met de problemen met AI en toetsing. ‘Ik ben tevens extern lid van de examencommissie van Management Sciences bij de faculteit BMS. Het wordt in toenemende mate moeilijk om te detecteren of er sprake is van het gebruik van generatieve AI, dat kan ik zeker bevestigen. Zeker in het geval van opdrachten die studenten thuis moeten maken.’ Ook docenten zijn verrast, weet Frittella. ‘We hebben weleens geprobeerd om bepaalde opdrachten die ze hadden opgesteld volledig door ChatGPT te laten maken. Onmogelijk, dachten ze in eerste instantie, maar de conclusie was dat het eindresultaat een voldoende zou hebben opgeleverd. Dat is wel even slikken voor ze.’

Een van de aanbevelingen die haar examencommissie aan docenten doet, in het geval van gegronde twijfel: houd achteraf een zogeheten oral inspection om bewijs te verzamelen voordat melding wordt gemaakt bij de examencommissie. ‘Het is bijzonder moeilijk voor een examencommissie om de inhoud volledig op waarde te schatten, daarvoor zijn de opdrachten vaak te vakinhoudelijk. The devil is in the details. Ik ben bekend met een casus waarbij de docent een inconsistentie zag tussen de argumentatie en de bron die daarbij werd aangevoerd. De student gebruikte de bron ter ondersteuning van het argument, maar die bleek het juist tegen te spreken. De docent had dat door – juist vanwege zijn diepgaande vakinhoudelijke kennis. En de student bekende uiteindelijk tijdens die mondelinge inspectie.’

Park assist

Wanneer rechtvaardigt het doel de middelen? In de context van generatieve AI: wanneer zou je studenten wel of niet de ‘hulplijn’ laten inschakelen? ‘De context van de opleiding en opdracht zijn erg belangrijk’, zegt Groenier. ‘Het is heel anders als je een verslag of paper moet schrijven ten opzichte van brugconstructies doorrekenen of programmeren. Zeker in het laatste geval is het toestaan van gebruik van AI heel logisch, heb ik begrepen vanuit de opleiding biomedische technologie.’

'Het komt uiteindelijk neer op de vraag welke vaardigheid een student moet beheersen' - Pieter Roos

Pieter Roos, afgelopen jaar senior teaching fellow op het gebied van digitalisering en voormalig winnaar van de Centrale Onderwijsprijs, kan zich vinden in de redenatie van Groenier. Roos’ eigen vakken als fluid mechanics en mathematical physics of water systems kennen volgens hemzelf geen directe conflicten met AI. Maar binnen zijn opleiding civiele techniek is AI zeker een terugkerend onderwerp van discussie. ‘Het komt uiteindelijk neer op de vraag welke vaardigheid een student moet beheersen. Je kan zeggen: ik ga AI helemaal buitenspel zetten, of je kiest voor een opener houding: we weten dat AI bestaat en met dat in het achterhoofd wil ik de vaardigheden van een student in een specifiek vakgebied toetsen. Dat doe je door heel bewust te kijken naar wat AI kan en volgens welke maatstaven je een student toetst. De ontwikkeling van AI zou hoe dan ook implicaties voor de leerdoelen van een vak en de eindtermen van een opleiding moeten hebben.’

Roos ziet een analogie met rijexamens. ‘Moderne auto’s hebben tegenwoordig allemaal beschikking over een parkeerassistent. Ga je dan tijdens een rijexamen zeggen tegen degene die af moet rijden dat dat knopje niet ingedrukt mag worden? Of ga je zeggen: we gaan je niet beoordelen op deze specifieke vaardigheid, want daar is nu eenmaal die parkeerassistentieknop voor. Zo is het ook met AI in het onderwijs. Zulke beslissingen moet je als opleiding maken.’

‘Diefstal van waardevolle arbeid’

Of je zegt als opleiding – en als universiteit: er is hier helemaal geen plek voor kunstmatige intelligentie. Dat is hoe universitair hoofddocent toegepaste filosofie Nolen Gertz in de wedstrijd staat. ‘De beste verdediging is om studenten de meerwaarde te leren van het niet gebruiken van AI’, zegt hij. ‘Het gaat me niet zozeer om het spelen van plagiaatpolitie, het gaat me om de kwaliteit van onderwijs. Die kun je niet garanderen als je het gebruik van AI aanmoedigt. We moeten er alles aan doen om het gebruik van AI te voorkomen en er alles aan doen om het niet te promoten.’

'Generatieve AI is niets anders dan geautomatiseerde diefstal van waardevolle arbeid. Als je het zo zou noemen, zou je het dan nog gebruiken?' - Nolen Gertz

Gertz voert tal van argumenten aan tegen het gebruik van AI. ‘Ergens is het hypocriet als de ene opleiding het aanmoedigt en de andere niet. Dat geeft gemengde signalen. En als we als universiteit zeggen dat we duurzaam willen zijn en vliegreizen niet willen promoten, waarom zouden we het energieslurpende AI wel promoten? We moeten consistent zijn in onze waarden.’ Bovenal vindt Gertz de term kunstmatige intelligentie ongepast. ‘Het is niet kunstmatig, het is niet intelligent. ChatGPT is niets anders dan een woordgenerator op steroïden. Doordat het put uit al het werk dat mensen hebben geleverd, is het eigenlijk niets anders dan geautomatiseerde diefstal van waardevolle arbeid. Als je het zo zou noemen, zou je het dan nog gebruiken?’

Gemakzucht

Volgens Gertz gaan universiteiten te makkelijk mee in het narratief van de grote bedrijven die zeggen dat AI hier is en niet meer weggaat. ‘Op deze manier maken we onszelf overbodig. Ik maak me zorgen over de afname van vaardigheden. Dat slaat op het bestaansrecht van een universiteit: we zijn hier niet om studenten sluiproutes aan te leren om een opdracht te maken, een cijfer te halen – en daarmee uiteindelijk hun diploma. We zijn hier om ze daadwerkelijk iets te leren, dat ze kunnen doorgronden, beheersen en reflecteren. Daar zijn geen sluiproutes voor.’

Het is namelijk de gemakzucht die gepaard gaat met AI die Gertz vooral tegen de borst stuit. ‘En het menselijke aspect. Als je eerder een collega zou vragen om advies, maar nu een prompt invoert in ChatGPT, wat win je ermee? En als je zegt dat het je tijd bespaart, dan kun je net zo goed stoppen met je baan. Want je bent toch niet docent geworden om zo efficiënt mogelijk te werken? Net zoals dat jij geen journalist bent geworden om AI vragen te laten bedenken en dit artikel te schrijven. Alles wat wordt gezien als een uitdaging wordt geframed als iets waar AI ons van zou moeten redden. Maar als je het gebruikt, doe je jezelf uiteindelijk tekort. Zowel als medewerker als student.’

Verantwoord gebruiken

Frittella is het niet met Gertz eens over dat de UT het gebruik van AI moet verbieden. ‘Dat zou haaks staan op het statement van het college van bestuur hierover. AI is een blijvertje en we moeten studenten leren het verantwoord gebruiken’, aldus Frittella, die wijst op de term AI-geletterdheid. ‘Als je kijkt naar het digital competency framework van de Europese Uniem zie je daar al dat het gebruik van AI-tools wordt beschouwd als een belangrijk onderdeel van informatievaardigheden. Dus als we willen dat onze studenten informatiegeletterd zijn, moeten we AI daarin meenemen. Ook gezien de EU AI Act, die van alle medewerkers van publieke organisaties verlangt dat ze een fundamenteel niveau van AI-geletterdheid hebben, sluit ik niet uit dat AI-geletterdheid hier op een gegeven moment een soort verplichte cursus wordt, net als de cursus op het gebied van cybersecurity.'

Want er is nog werk aan de winkel, zo concludeert ze aan de hand van een recente enquête. ‘Van de 53 opleidingen aan de UT gaven er slechts zeven aan dat er geen sprake was van AI in het curriculum, of ze wisten het niet zeker. Maar bij de vraag of AI systematisch werd toegepast binnen het curriculum zei 68 procent van de opleidingen nee. Nu zijn het vooral individuele docenten die de keuzes maken. Daar zit dus zeker nog wel een gat.’

'Studenten willen dat hun papiertje wat waard is; ze hechten veel waarde aan de reputatie van hun opleiding en diploma' - Pieter Roos

Terwijl Frittella wel vindt dat kunstmatige intelligentie thuishoort op deze technische universiteit. ‘Niet zozeer om studenten het gebruik ervan aan te leren, maar wel om een kritische mindset te activeren. Als we zeggen een people-first university of technology te zijn, dan wil je dat het menselijke perspectief leidend is. Zie het zo: wanneer iemand hier is afgestudeerd, later ziekenhuisbestuurder wordt en iemand binnen die organisatie een AI-gedreven tool wil introduceren, dan wil je dat die alumnus de uitdagingen identificeert en de juiste keuzes maakt.’

Aanmoedigen, ontmoedigen, verantwoord gebruiken… Die steen die in de vijver is gegooid door de studentcolumnist van U-Today, die laat nog steeds de nodige rimpelingen in het water achter: wie redt de examencommissies? Want waar gestudeerd wordt, daar ligt immers ook academische fraude op de loer. Frittella en Groenier zeggen dat die genoemde AI-geletterdheid hand-in-hand moet gaan met regulering. ‘Dat blijft uiteindelijk een spagaat tussen vertrouwen en controle’, zegt Groenier.

Rechtvaardigheidsgevoel

En een UT-breed beleid voor AI? Daar is volgens Frittella onder docenten en opleidingsdirecteuren wel behoefte aan vanwege de heersende onduidelijkheid op het moment. Al is het wenselijk om regels en richtlijnen zo ‘lokaal’ mogelijk te creëren en hanteren, vult Roos aan. ‘Als je het ergens neerlegt, doe het dan bij de opleidingen zelf’, aldus Roos. ‘Zij snappen de context, het vakgebied. De leerdoelen en eindtermen verschillen ook per opleiding. Daar moet je absoluut rekening mee houden.’

‘Nu is de houding: beter iets dan niets. Het probleem met generatieve AI is er, zonder meer’, zo herhaalt Groenier. ‘Maar een oplossing, die heb ik allerminst. Ik zou daarom ook lezers willen oproepen, wie ook maar een idee heeft voor een oplossing, laat het alsjeblieft weten. Schrijf een open brief, wat dan ook.’ Ook Roos heeft de oplossing niet voorhanden, maar denkt wel dat studenten een rol kunnen spelen om daarmee te komen. ‘Studenten willen dat hun papiertje wat waard is; ze hechten veel waarde aan de reputatie van hun opleiding en diploma. Daar zit ook een eerlijkheid- en rechtvaardigheidsgevoel onder, dat ze niet willen dat iedereen zomaar door sommige onderdelen van een opleiding heen kan sjezen. Verreweg de meeste studenten zitten hier natuurlijk met de beste intenties. Dus ik zie zeker mogelijkheden om samen met studenten tot een oplossing te komen.’

Maar het moge duidelijk zijn: die gordiaanse knoop waar generatieve AI de universiteit in heeft gewerkt, die is nog allesbehalve ontwaard.

Stay tuned

Sign up for our weekly newsletter.