News and events Tilburg University

Data challenges, deep neural models en AI in spellen

Gepubliceerd: 10 juni 2021 Laatst bijgewerkt: 13 juli 2021

Op donderdag 20 mei 2021 vond de vierde editie van de TAISIG Talks plaats. TAISIG is de Tilburg University Artificial Intelligence Special Interest Group: een onderzoeksgemeenschap die zich inzet voor Artificial Intelligence (AI). Katrijn Van Deun, Afra Alishahi en Pieter Spronck deelden hun inzichten.

Data challenges van multidisciplinair onderzoek

Onze eerste spreker, dr. Katrijn Van Deun, trapte af met haar lezing over de data challenges van multidisciplinair onderzoek en hoe we die kunnen oplossen. Katrijns onderzoek richt zich op het domein gezondheid en welzijn, waarbij twee grote vragen centraal staan: wie loopt risico op een laag welzijn en waarom loopt iemand risico? Bij het bepalen van risicofactoren houden onderzoekers niet alleen rekening met leefstijl, maar ook met omgevingsfactoren en genetische aanleg. Gegevens worden verzameld bij één groep respondenten voor een dataset met meerdere blokstructuren. Deze manier van gegevensverzameling levert uitdagingen op voor de analyse. De eerste uitdaging is van exploratieve aard. Het vinden van nieuwe relaties en de relevante variabelen is vergelijkbaar met het zoeken naar een naald in een hooiberg. De tweede uitdaging is dat correlaties binnen een blok meestal sterker zijn dan tussen de blokken, terwijl dat laatste is waar onderzoekers in geïnteresseerd zijn. In haar lezing geeft Katrijn ons inzicht in haar recent gepubliceerde onderzoek waarin zij de Principle Components Analysis methode heeft ontwikkeld. Deze methode gebruikt blok regularisatie om de inter-blok correlaties te vinden en identificeert de gezamenlijke mechanismen.

Decoderen van deep neural models

Dr. Afra Alishahi, onze tweede spreker, is expert op het gebied van cognitieve modellen van taalverwerving. Het domein van de ontwikkeling van interpreteerbaarheidstechnieken voor diepe neurale modellen van taal is jong, maar snel groeiend. De huidige neurale netwerkarchitecturen, zoals het Transformer Network en het BERT taalmodel, zijn complex door hun vele lagen. Deze complexiteit maakt de modellen krachtig, maar resulteert ook in een black box, wat betreft hun interne werking. In de video hieronder presenteert Afra drie algemene benaderingen die door onderzoekers zijn voorgesteld om de interne werking van neurale modellen te begrijpen. De eerste is inputmanipulatie, waarbij de input woord voor woord wordt aangepast om inzicht te krijgen in welke woorden de aandacht van het model krijgen. De tweede benadering is het analyseren van de interne representatie. Deze laat zien welke aspecten van taal het model codeert en op welke laag. De derde en laatste benadering is representational similarity analysis waarbij dezelfde set stimuli op een andere manier gerangschikt worden. Dit meet de correlaties tussen de overeenkomsten van de verschillende rangschikkingen.

Kunstmatige intelligentie in games

Onze laatste spreker, prof.dr.ir. Pieter Spronck is gespecialiseerd in kunstmatige intelligentie in games. Vanaf de start van AI is het gekoppeld aan games: DeepBlue werd ontwikkeld en versloeg in 1997 wijlen wereldkampioen Garry Kasparov. In de begindagen werd het game-onderzoek uitgebreid met videogames, moderne bordspellen en tabletop role-playing games. Binnen dit soort onderzoek is de spelwereld de inhoud en zijn AI-agents de spelers. Vanaf 2015 heeft Google Deepmind meerdere doorbraken bereikt. Zij ontwikkelden AI, door middel van diepe convolutionele neurale netwerken en de Monte Carlo tree search, die beter speelde dan menselijke kampioenen. Hoewel dit opmerkelijk is, hebben we nog geen algemene AI bereikt, die elk spel kan spelen op basis van louter de beschrijving. Bordspellen met een hoge complexiteit, spellen met meer dan twee spelers en rollenspellen waarbij de spelers spelenderwijs een verhaal creëren, vormen uitdagingen voor de AI-speler. In zijn Talk presenteert Pieter drie cases uit Google Deepminds en deelt zijn opmerkingen.