Generatieve AI in het UGent-onderwijs
Je kan er niet meer aan ontsnappen: generatieve AI-tools als ChatGPT, Copilot, Consensus, Perplexity ... zijn alomtegenwoordig, binnen en buiten de universiteitsmuren. Maar wat is dat eigenlijk, zo’n generatieve-AI-tool? Wat kunnen ze en wat kunnen ze (nog) niet? Welke gevaren schuilen er in het gebruik? En mag je de tools überhaupt gebruiken? Deze pagina bevat de antwoorden op bovenstaande vragen.
Artificiële intelligentie (AI) evolueert continu. We proberen deze pagina up-to-date te houden zodat de aangeboden informatie niet achterhaald is.
Wat is generatieve AI?
Generatieve AI verwijst naar AI-systemen die in staat zijn om nieuwe, originele inhoud te creëren op basis van de patronen en structuren die ze hebben geleerd uit bestaande gegevens. Ze worden getraind op enorme hoeveelheden data, voornamelijk gehaald van het internet.
Door geavanceerde algoritmen en neurale netwerken kunnen ze tekst, afbeeldingen, audio, video's en computercode genereren die overeenkomt met wat mensen zouden kunnen produceren. Die nieuwe inhouden zijn statistisch vergelijkbaar met hun trainingsgegevens, maar uniek en aangepast aan specifieke input of instructies.
Wil je meer weten over wat generatieve AI is en hoe het werkt? Bekijk dan module 1 van het Ufora-leerpad Generatieve AI: over leren en creëren!
Welke generatieve-AI-systemen bestaan er?
ChatGTP is nog steeds het bekendste voorbeeld van een generatieve-AI-systeem. Gelijkaardige chatbots schieten als paddenstoelen uit de grond, en worden aan een hels tempo geïntegreerd in verschillende applicaties. Denk maar aan Copilot (van Microsoft), Gemini (van Google) en Claude.
Er zijn ook immens veel andere tools die je helpen met wetenschappelijk onderzoek, academisch schrijven ... Elke tool en app heeft andere sterktes en beperkingen. Blijf steeds kritisch.
Wat zijn de risico's?
Generatieve AI gebruiken verloopt niet zonder risico’s. Houd steeds onderstaande beperkingen en mogelijke ethische implicaties in het achterhoofd wanneer je de tools gebruikt.
- De makers zijn vaak weinig transparant over hun trainingsdata: welke informatie hebben ze ingevoerd en waar hebben ze die gevonden? In combinatie met de afwezigheid van bronnen gaat het hier dus mogelijks over intellectuele diefstal. Bovendien expliciteren ze ook niet waar de door jou ingegeven informatie naartoe gaat. Voer dus nooit privacygevoelige informatie in! Dat is zelfs strafbaar volgens de algemene verordening gegevensbescherming (AVG). En voer ook nooit syllabi, artikels ... zonder toestemming van de auteur: je geeft die teksten gratis weg aan de makers van de tools.
- De informatie die je krijgt, is niet altijd correct. De antwoorden zijn inhoudelijk onbetrouwbaar aangezien de data waarop de antwoorden gebaseerd zijn beperkt zijn. Als er namelijk onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je toch een geloofwaardig antwoord krijgen dat niet noodzakelijk waar is. Dat heet “hallucineren”, wat ervoor zorgt dat we moeilijker kunnen inschatten wat waar en wat niet waar is. Bovendien kunnen die teksten met fouten, fake afbeeldingen enz. een eigen leven leiden, wat bijdraagt tot fake nieuws.
- De antwoorden kunnen bias bevatten, omdat het systeem getraind is op mogelijk gekleurd bronmateriaal én omdat dat bronmateriaal nooit alle data van de hele wereld bevat. Zo zullen de antwoorden voornamelijk gebaseerd zijn op westerse data.
- Een andere ethische implicatie van generatieve AI is de impact op wetenschappelijke integriteit. Veel tools geven geen bronnen bij de gegenereerde informatie waardoor je steeds moet nagaan wie de oorspronkelijke auteur is. Het is jouw verantwoordelijkheid om te waken over de kwaliteit van je onderzoek!
- Het lijkt alsof generatieve AI in staat is om ongelijkheid weg te werken: alle studenten hebben toegang tot de tools, waardoor bv. een tutor inschakelen om bepaalde schrijftaken tot een goed einde te brengen niet meer enkel weggelegd is voor de rijkere studenten. De makers van de tools blijken echter meer en meer betalende versies van hun product aan te bieden die veel performanter zijn dan de gratis versies. Dat werkt net ongelijkheid in de hand.
- Ook de ecologische voetafdruk is niet te onderschatten. Voor de ontwikkeling van de tools en het gebruik ervan is een enorme rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.
- Een bijkomend risico is het gevaar voor antropomorfisme: het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie. Het is belangrijk te begrijpen dat de programma’s enkele redeneringspatronen hebben geleerd uit teksten, maar geen expliciete logica bevatten en zeer beperkt zijn in redeneercapaciteiten.
Mag je generatieve AI gebruiken?
Vanaf academiejaar 2024-2025 gelden onderstaande richtlijnen voor taken die je thuis maakt:
- voor de masterproef is het verantwoord gebruik van generatieve-AI-tools toegelaten.
- voor andere (schrijf)taken wordt het verantwoord gebruik zelfs aangemoedigd, als voorbereiding op de masterproef.
Let op: een individuele lesgever in een specifiek vak kan nog steeds het gebruik verbieden, om zo te kunnen nagaan of je bepaalde basiscompetenties wel echt onder de knie hebt. (zie ook: Wat is het nut van bepaalde competenties als je later ook een AI-tool kan gebruiken?) Lees dus steeds je studiefiche na of vraag het aan je lesgever.
Het woord "verantwoord" is hier erg belangrijk. Bovenstaande risico's tonen hoe je voorzichtig moet omgaan met de tools, zeker op het gebied van privacy, betrouwbaarheid en bias. Je zal in je opleiding handvaten krijgen voor dat verantwoord gebruik. Je kan er ook meer over lezen in Ufora-leerpad Generatieve AI - van leren tot creëren.
Dat verantwoord gebruik kan je onder andere moeten aantonen als onderdeel van een procesevaluatie. Je lesgevers zullen, meer dan vroeger, het proces bevragen. Niet enkel over het gebruik van de tools, maar ook ook over specifieke competenties. Denk maar aan bronnen vinden, samenvatten …: hoe heb je dat aangepakt? Waarom is dit een goede samenvatting? Enzovoort. Zo kunnen ze inschatten of jij bepaalde competenties zelf verworven hebt. Zelfreflectie speelt hier een cruciale rol: je zal het proces moeten bijhouden en expliciteren, door o.a. een mondelinge toelichting, tussentijdse (peer)feedback, bevragingen, enz.
Biedt generatieve AI ook mogelijkheden?
Uiteraard kunnen de tools je ook helpen. Zo kan je extra duiding en voorbeelden vragen bij moeilijkere leerstof, feedback vragen op zelfgeschreven teksten, wetenschappelijke artikels zoeken voor je onderzoek, enz. Inspiratie nodig? Check het Ufora-leerpad Generatieve AI - van leren tot creëren.
Wat is het nut van bepaalde competenties als je later ook een AI-tool kan gebruiken?
Bepaalde competenties, zoals het zelfstandig schrijven van teksten in een correct taalgebruik, lijken nu misschien minder belangrijk. Die competenties behoren echter tot de vereiste leerresultaten van veel opleidingen. Zo kan je geen diploma Rechten verkrijgen zonder in staat te zijn zelf een juridische argumentatie te formuleren als oplossing van een complex juridisch vraagstuk. Of een diploma van een talenopleiding zonder zelf goede en correcte teksten te schrijven. Of een diploma Informatica zonder in staat te zijn zelf te programmeren.
Een sterke schrijfvaardigheid vereist daarenboven meer dan wat zo’n generatieve-AI-tool op dit moment kan. Competenties als kritisch denkvermogen, kennis van effectieve communicatie en creativiteit blijven noodzakelijk om de kwaliteit van de gegenereerde teksten in te schatten en aan te passen.
Meer info nodig?
Niet elke student is vanzelf in staat om vlotjes met zulke tools te werken. Voel je jezelf onbekwaam om de tools te gebruiken? Zou je graag meer te weten komen over generatieve AI in het algemeen?
Schrijf je in voor het Ufora-leerpad Generatieve AI - van leren tot creëren