Taal is zeg maar echt zijn ding – vooral taalverwerking door computers dan. Salim Salmi deed zijn master aan de TU Delft, waar hij op zoek ging naar een afstudeerproject op het gebied van taalverwerking. “Ik zag aankomen dat er op dat gebied een sprong gemaakt zou worden.”
Hij belandde bij de Stichting 113 Zelfmoordpreventie, die studenten zocht om een tool te ontwikkelen ter ondersteuning van de hulpverleners. 113 biedt een hulplijn waar mensen met gedachten aan zelfdoding terecht kunnen om anoniem hun gevoelens en zorgen te uiten, met als ultieme doel om zelfdoding te voorkomen. In 2023 werden er via telefoon en chat bijna 185.000 gesprekken gevoerd; 21,5% meer dan het jaar ervoor.
Salmi liep mee met de hulpverleners en interviewde hen over hun werk om te achterhalen op welke vlakken hij hen zou kunnen helpen. De eerste aanzet tot een tool om hen te ondersteunen, leidde uiteindelijk tot het aanbod van een promotieplek. Op 4 december verdedigde hij zijn proefschrift aan de Vrije Universiteit Amsterdam.
Kwaliteit van gesprekken
“Een van de belangrijkste vragen was: hoe kunnen we de effectiviteit van de 113 hulplijn onderzoeken?”, vertelt de onderzoeker, die zijn research bij het CWI uitvoerde. Dit was meteen een uitdaging, want: “We hebben veel tekstdata, maar die kunnen we niet koppelen aan uitkomsten. Omdat mensen anoniem contact opnemen, weet je niet hoe het ze vergaat na het gesprek. Daarom vroegen we hen om voor en na het gesprek een vragenlijst in te vullen. Die lijst kijkt naar de aanwezigheid van kenmerken die kunnen wijzen op suïcidaal gedrag. Hieruit komt een bepaalde score. Zien we daarin na het gesprek een verandering?”
Door jarenlang dergelijke gegevens te verzamelen, vormde zich een beeld welke gesprekken wel en welke niet tot een ‘goed’ resultaat leiden. Met deze informatie trainde Salmi een AI-model dat probeert te achterhalen welke delen van het gesprek een verbetering of juist een verslechtering teweegbrengen. “Doorgaans zijn dit soort modellen een black box: je hebt als onderzoeker geen idee hoe ze tot een bepaalde conclusie komen. Door de chatgesprekken op te splitsen in vrij eenvoudige zinnen, kan ik achteraf zien welke zinnen volgens het model invloed hadden op de uitkomst van een gesprek. Dit is geen harde maat dat iemand succesvol geholpen is, maar wel een indicatie.”
Digitale assistent
Voor zijn promotie-onderzoek maakt Salmi gebruik van Machine Learning (ML) en Natural Language Processing (NLP), een subgebied van AI dat focust op de interactie tussen computers en menselijke taal. NLP houdt onder meer in dat er modellen en algoritmen worden ontwikkeld die computers helpen bij het begrijpen, interpreteren en genereren van mensentaal. ChatGPT is daar een bekend voorbeeld van.
Met een model in handen dat geleerd heeft hoe het gesprekken met hulpverleners moet beoordelen, werd het tijd voor de volgende stap: de ontwikkeling van een digitale assistent die de hulpverlener suggesties kan geven tijdens een 113 chatgesprek. Het model zoekt in zijn database met succesvolle gesprekken naar teksten die van toepassing zijn op de chat die gaande is, en doet een voorstel. Hulpverleners krijgen dus voorbeelden te zien van gesprekken die echt hebben plaatsgevonden.
“Dat vinden ze ook erg belangrijk”, weet Salmi. Voordat hij zijn tool ontwikkelde, vroeg hij aan de 113-medewerkers wat ze zouden kiezen: hulp op maat van AI waarbij je niet weet waar deze informatie vandaan komt, of een minder specifieke suggestie in de vorm van een eerder gevoerd gesprek dat lijkt op het gesprek dat je nu aan het voeren bent. “De meerderheid wilde kijken naar échte gesprekken van échte hulpverleners.”
Vooral lastige gesprekken
Voor zijn promotie-onderzoek maakt Salmi gebruik van Machine Learning (ML) en Natural Language Processing (NLP), een subgebied van AI dat focust op de interactie tussen computers en menselijke taal. NLP houdt onder meer in dat er modellen en algoritmen worden ontwikkeld die computers helpen bij het begrijpen, interpreteren en genereren van mensentaal. ChatGPT is daar een bekend voorbeeld van.
Met een model in handen dat geleerd heeft hoe het gesprekken met hulpverleners moet beoordelen, werd het tijd voor de volgende stap: de ontwikkeling van een digitale assistent die de hulpverlener suggesties kan geven tijdens een 113 chatgesprek. Het model zoekt in zijn database met succesvolle gesprekken naar teksten die van toepassing zijn op de chat die gaande is, en doet een voorstel. Hulpverleners krijgen dus voorbeelden te zien van gesprekken die echt hebben plaatsgevonden.
“Dat vinden ze ook erg belangrijk”, weet Salmi. Voordat hij zijn tool ontwikkelde, vroeg hij aan de 113-medewerkers wat ze zouden kiezen: hulp op maat van AI waarbij je niet weet waar deze informatie vandaan komt, of een minder specifieke suggestie in de vorm van een eerder gevoerd gesprek dat lijkt op het gesprek dat je nu aan het voeren bent. “De meerderheid wilde kijken naar échte gesprekken van échte hulpverleners.”
Altijd een mens
“Tien jaar geleden zou het niet gelukt zijn om zo’n tool te maken”, weet de promovendus. “Taal begrijpen en interpreteren was altijd de grootste uitdaging voor AI-modellen. Ze kunnen moeilijk tussen de regels door lezen wat je bedoelt. Maar daarin zijn nu enorme stappen gemaakt.”
“Masterstudent Mathijs Pellemans toonde aan dat de tool ook kan helpen bij het toepassen van bepaalde gesprekstechnieken. 113-hulpverleners worden bijvoorbeeld getraind in een gesprekstechniek die motivational interviewing heet. De tool kan ze ondersteunen en ze op weg helpen met het gebruik van deze techniek.”
De volgende stap is om het model bij 113 uit te breiden van chat- naar telefoongesprekken. Nu zijn PhD-traject is afgerond, begint Salmi aan een nieuw project: onderzoeken of en hoe hij zijn tool kan integreren in het platform dat mensen gebruiken om hulp te vragen bij 113.
Uiteindelijk wil hij naar een ‘ChatGPT-achtig’ model dat een echt gesprek krijgt voorgelegd en met een concreet advies komt. “Dat is de toekomst.” Wat wel belangrijk is om te weten, benadrukt Salmi, is dat er altijd een mens zal zitten tussen de AI en degene die 113 om hulp vraagt.