
Nieuws
AI denkt in de toekomst misschien dierlijker
Voor hun experimenten met kunstmatige intelligentie lieten Dr. Steffen Werner en Dr. Michael Coughlan zich inspireren door de manier waarop dieren denken. Hun inzichten kunnen helpen om neurale netwerken te ontwikkelen die stabieler, efficiënter en veelzijdiger zijn.
“Hoewel kunstmatige intelligentie indrukwekkende prestaties levert, ontwikkelen de grote modellen van Silicon Valley—getraind op enorme hoeveelheden data—zich niet meer met hetzelfde tempo als voorheen,” vertelt Dr. Steffen Werner van de Experimental Zoology Group van Wageningen University & Research. “Bovendien zijn deze grote modellen behoorlijk ondoorzichtig. Het is moeilijk te begrijpen hoe ze functioneren en dus hoe ze verbeterd kunnen worden.” Werner en zijn collega Dr. Michael Coughlan gingen terug naar de basis en experimenteerden met de kleinst mogelijke deep learning-algoritmen. “Als natuurkundigen zijn we op zoek naar het minimale systeem; we begrijpen door vereenvoudiging,” legt Coughlan uit.
Voor hun experimenten lieten de wetenschappers zich inspireren door de dierenwereld. “Dierlijke hersenen hebben aspecten waar veel kunstmatige modellen jaloers op mogen zijn. Ze kunnen functioneren terwijl ze nog groeien, ze hebben minder uitgebreide netwerken nodig en ze kunnen meer dan één taak tegelijk leren,” zegt Werner. “We hebben deze eigenschappen gereproduceerd in kleine neurale netwerken. Om te zien of het mogelijk was, maar ook om ze te bestuderen.” De inzichten die deze modellen opleverden, wijzen in nieuwe richtingen voor de ontwikkeling van kunstmatige intelligentie.
Verrassende kwaliteiten ontdekt
“Een van de problemen waar kunstmatige intelligentie mee te maken heeft, heet catastrofaal vergeten,” legt Werner uit. “Stel dat je een AI hebt getraind om handgeschreven nummers te herkennen, en je leert hem vervolgens om vormen te herkennen. Vaak vergeet het model dan de eerste taak terwijl het de tweede leert. De meeste biologische hersens kunnen daarentegen meerdere dingen tegelijk leren, zonder ooit het risico te lopen iets te overschrijven.”

De wetenschappers slaagden erin hun model twee dingen tegelijk te leren door tijdens de trainingsperiode continu af te wisselen tussen de twee taken. “Hoewel de training iets langer duurt, leerde de AI zowel handschriften als vormen herkennen met ongeveer hetzelfde slagingspercentage als gespecialiseerde tegenhangers. Interessant was echter, dat het neurale netwerk zichzelf in ruwweg twee helften had verdeeld. Het gebruikte elke helft voor een aparte taak. Zo hadden we het netwerk niet opgebouwd, deze structuur kwam voort uit de training,” zegt Werner.
Werner en Coughlan ontdekten nog een andere verrassende eigenschap toen ze de neurogenese van dieren probeerden na te bootsen. “Dat is het proces waarmee dierlijke hersenen groeien. Het belangrijkste voor ons was dat biologische cognitie al functioneert terwijl het nog groeit. Daarom hebben we getest of een AI kapot zou gaan als we eraan werkten terwijl het model aan in training was,” zegt Coughlan. “Dat gebeurde niet. Verbazingwekkend genoeg nam de stabiliteit van het trainingsproces zelfs toe.”
Kunstmatige intelligentie begrijpen
De natuurkundigen wilden in de eerste plaats AI beter leren begrijpen. “Deze experimenten werden gevoed door onze nieuwsgierigheid. We wilden meer weten over de overeenkomsten, maar ook de verschillen, tussen biologische en kunstmatige neurale netwerken,” zegt Coughlan. De kwaliteiten die hun experimenten aan het licht brachten, riepen nieuwe vragen op bij de wetenschappers. Werner geeft een voorbeeld. “Hoe beïnvloedt de relatieve gelijkenis tussen de twee taken die we het model leerden het proces waarmee het zich in twee helften heeft verdeeld? Zou het netwerk er anders uitzien als de taken minder op elkaar leken?”
Toch, in een vakgebied waar de dominante benadering onder vuur ligt, kan het onderzoek van de wetenschappers nieuwe mogelijkheden aanwijzen. ChatGPT en Gemini zijn ontwikkeld met een ingenieursbenadering. “Ze zijn gebouwd om te werken, niet om op elk niveau begrepen te worden,” legt Werner uit. “Dat zou de ontwikkeling van deze modellen enorm hebben vertraagd.”
DeepSeek, de Chinese AI die in januari 2025 de industrie opschudde, werd daarentegen geproduceerd door een hedgefund waarbinnen wiskundigen de overhand hebben. “Net als natuurkundigen zijn zij geïnteresseerd in de manier waarop AI werkt,” zegt Coughlan. Dat zou kunnen verklaren waarom DeepSeek op zo'n indrukwekkend niveau presteert, terwijl de AI ook efficiënter is, en minder kostte om te bouwen. “AI heeft indrukwekkende vooruitgang geboekt de laatste jaren,” zegt Werner, “maar de recente vertraging vraagt om een nieuwe aanpak. Misschien is het tijd om te ontspannen en toe te werken naar meer wetenschappelijke kennis over kunstmatige intelligentie.”
Dies Natalis 2025: Artificial Intelligence for Sustainable Futures
Artificial Intelligence for Sustainable Futures staat centraal bij de Dies Natalis 2025, vrijdag 7 maart 2025.
Lees meer: