 De grootste kansen is dat we nu een instrument hebben waarbij we snelle teksten kunnen genereren, teksten kunnen schrijven, opmaken, programmeerkode kunnen genereren, excel sheets, presentaties, dat zijn de kansen en dat zal effecten hebben op allerlei vertakkingen van onze maatschappij. De grote bedreigingen zijn natuurlijk dat je datzelfde instrument kunt gebruiken om bijvoorbeeld veel betere spam te maken die niet van echte onderscheiden is. Dus je moet mensen opleiden om dat te herkennen. De IT-afdeling van Tilburg University en andere universiteiten moeten oppassen want er zijn nu steeds betere cyberaanvallen te doen met dit soort systemen. Je kunt GPT instrueren om gewoon een programma te maken die alle kwetsbaarheden van een organisatie kan ontdekken. Dus daar ligt zitten de gevaar. Nou wat je natuurlijk moet begrijpen is dat chat GPT geen mens is maar gewoon heel veel informatie verzamelt en niet de echte wereld kent. Dus je kunt eigenlijk de antwoorden niet vertrouwen van chat GPT. Je moet het zien als een aanzet waarbij je elk ding wat die genereerd moet wandrouwen. Dus wat je eigenlijk moet bereiken is dat mensen of studenten opgeleid worden om te herkennen wat waren ze en wat niet waren. Het is nu niet een probleem wat uniek is voor GPT. Dus dat hebben we al met internet en met andere bronnen van informatie. Nou de impact van dit soort systemen die zogenaamde large language modellen zal zijn dat ze veilig verfeind worden. Je zult speciale systemen krijgen voor bepaalde toepassingen, denk aan de finance of iets anders. En je zult zien dat er gewoon een integraal onderdeel wordt van onze dagelijkse werkzaamheden. Dus nu hebben we nog wat koud watervrees en wat discussie. Maar dit wordt gewoon een tol die iedereen gaat gebruiken. Textschrijvers, ontwerpers zullen de diffusion modellen gebruiken. En wij moeten als maatschappij kijken hoe we ons daar gaan aanpassen. En ik ga Tilburg University een prima plek is om die juiste balans tussen mens en computer te vinden.