Het advies vanuit jullie werkgroep is bedoeld om in het nieuwe collegejaar toe te passen. Wat houdt het precies in?
Van Emmerloot: ‘Het kan als een soort houvast dienen voor ons onderwijs, als gevolg van de opkomst van large language models als ChatGPT. Inmiddels hebben de eerste examencommissies al casussen in behandeling over of studenten al dan niet hebben gefraudeerd met behulp van kunstmatige intelligentie. Ons vertrekpunt was daarom om duidelijkheid te scheppen voor zowel studenten als docenten, al voor het komende collegejaar: in welke gevallen is het toegestaan om AI te gebruiken en op welke manieren moet je dat verantwoorden? Het belangrijkste begrip daarbij is transparantie.’
Zo blijkt ook uit het advies, studenten moeten ook vermelden als ze geen AI hebben gebruikt bij een opdracht.
Schildkamp: ‘Dat klopt. Het is ook wat een docent al aangaf: is het in deze tijd überhaupt nog wel te voorkomen dat kunstmatige intelligentie wordt gebruikt, al is het in een zeer milde of onschuldige vorm? Voor studenten moet het een extra drempel opwerpen: als je opschrijft dat je geen generatieve AI hebt gebruikt, moet je bij jezelf nagaan of dat daadwerkelijk het geval is geweest. Aan de ene kant kun je zeggen dat het gezond verstand moet zijn dat je je opdrachten niet moet laten maken door kunstmatige intelligentie. Anderzijds kan een student ook zeggen: het is niets anders dan een tool, een stuk gereedschap om een opdracht te maken. Het is hoe dan ook belangrijk dat dit transparant en integer gebeurt.’
En voor de docent?
Van Emmerloot: ‘We hebben een soort stoplichtsysteem opgesteld voor docenten en moduleteams. Bij elke opdracht of groepsopdracht moet duidelijk zijn of studenten wel of geen kunstmatige intelligentie mogen gebruiken. Of dat slechts bepaalde vormen van AI mogen worden toegepast, of voor bepaalde doelen.’
Schildkamp: ‘Uiteindelijk is dat de belangrijkste vraag die een docent zichzelf moet stellen: wat zijn de leerdoelen voor mijn studenten en past het gebruik van kunstmatige intelligentie daarbij? Als je leerdoel bijvoorbeeld het verbeteren van de schrijfvaardigheid van een student is, dan is het heel logisch om het gebruik van AI niet toe te staan. Wil je dat een student kritisch redeneert en reflecteert, dan zou je bijvoorbeeld wel ChatGPT kunnen vragen daarbij te assisteren. Echter, dan is het wel belangrijk dat de student duidelijk aangeeft hoe ChatGPT gebruikt is hierbij.’
Verbieden lijkt dus niet de bedoeling, op de UT?
Schildkamp: ‘Nee. Ik kom toevallig net uit een overleg in UNL-verband waar we het hier ook over hadden. Wat je ziet is dat sommige universiteiten tamelijk conservatief met het onderwerp omgaan: gebruikt een student AI, dan wordt het gezien als fraude of plagiaat. Maar je hebt ook universiteiten als de UT, die zeggen: het is redelijk nieuwe technologie, het heeft geen zin het buiten de deur te houden. Maar hoe kunnen we wél zorgen dat zowel docent als student het goed gebruiken? Ik denk dat je kan concluderen dat we als UT aansturen op een human-centered aanpak ten opzichte van AI. De docent en student moeten in the lead zijn, niet de technologie.’
De geïnterviewden
Kim Schildkamp is hoogleraar bij lerarenopleiding ELAN, in 'Data-Informed Decision Making for Learning and Development'. Robin van Emmerloot is als onderwijskundig adviseur verbonden aan CELT (het Centre for Expertise in Learning and Teaching) en TELT (Technology Enhanced Learning & Teaching).
Wat zijn de volgende stappen om kunstmatige intelligentie goed in te passen in het onderwijs van de UT?
Schildkamp: ‘Belangrijk is dat we werken aan de AI-geletterdheid van docenten en studenten. Daarom maken we nu bijvoorbeeld een magazine voor docenten waarin informatie over AI in het onderwijs samenkomt, van ethische overwegingen tot inspirerende voorbeelden. Bovendien kunnen we nog meer onderzoek doen naar de toepassingen van AI in het hoger onderwijs.’
Van Emmerloot: ‘Vanuit CELT en TELT kunnen we docenten ondersteunen. Daarnaast moeten we als UT rekening houden met kansengelijkheid. Je ziet dat aanbieders bepaalde verdienmodellen hanteren, die niet voor iedereen even betaalbaar zullen zijn. Als we als UT met een aanbieder in zee zouden gaan, moeten we wel zorgen dat de technologie toegankelijk is voor iedereen.’
En de verdere toekomst? Is er geen ontkomen meer aan kunstmatige intelligentie als ChatGPT?
Schildkamp: ‘Nee, dat denk ik niet. En de komst van ChatGPT heeft ons ook niet volledig overvallen, durf ik wel te stellen. We zijn op de UT al langer met het onderwerp bezig. Al voordat ChatGPT doorbrak hadden we al een AI and Data in Education-netwerk onder de vlag van het Digital Society Institute, met inmiddels bijna zestig aangesloten medewerkers. Er zijn nog tal van mogelijkheden om AI goed toe te passen in ons onderwijs, bijvoorbeeld in het geautomatiseerd nakijken van tentamens of om het in te zetten als feedbacksysteem of als extra docent of student in de collegezaal. De hakken in het zand zetten lijkt weinig zin te hebben.’
Van Emmerloot: ‘Daarnaast lijkt het me zinvol dat binnen opleidingen bepaalde vragen worden gesteld die wat verdergaan dan: ‘wat doen we met mogelijke plagiaat- of fraudekwesties’. Kwaadwillende studenten hebben altijd manieren gevonden om misbruik te maken van situaties en zullen dat blijven doen. De dieperliggende vraag die ook gesteld moet worden binnen een opleiding is: welke kant ontwikkelt het werkveld zich op, met behulp van kunstmatige intelligentie – en op welke manier is het onderwijsaanbod daarop aan te passen? Dat gaat verder dan wat wij als werkgroep kunnen doen, maar zo’n fundamentele vraag zal binnen opleidingen gesteld moeten worden.’