De vertrouwenspersoon en AI: hulp of hinder?

Iedere arts zal het herkennen: de patiënt komt binnen met een uitdraai van bij elkaar gegoogelde informatie over zijn of haar vermeende ziektebeeld, en weet precies te vertellen wat de arts daaraan moet doen. Daar is de patiënt ook lastig vanaf te brengen; hij heeft de symptomen A, B, en C, wat leidt tot de diagnose X, waarbij behandeling Y hoort. En als medisch tijdschrift ‘The Lancet’ dat zegt, wie is dan de huisarts of de arts van het streekziekenhuis om daar iets tegenin te brengen?

De laatste jaren is Google niet meer de enige informatiebron, maar zijn diverse AI-tools breed toegankelijk geworden. Dat maakt het nog gemakkelijker om informatie te verzamelen en dat fenomeen komt ook de spreekkamer binnen. Het gebruik van Google en AI is niet ‘goed’ of ‘fout’. Met een patiënt die geïnteresseerd is in hetgeen hij mankeert, en daarover leest, is het voor een arts vaak gemakkelijker communiceren dan dat dat was met een patiënt in de jaren ’70 – ’80 van de vorige eeuw, die zich wellicht te veel realiseerde dat hij ‘er geen verstand van had’ en blindelings, zonder verdieping en reflectie, deed wat de dokter zei.

Over het raadplegen van AI, Kunstmatige Intelligentie, is in de afgelopen decennia veel geschreven, en we konden er op wachten dat ook wij, als vertrouwenspersonen, met door AI geïnformeerde melders zouden worden geconfronteerd. Wij zijn geen kenners van AI. We houden ons verre van diepgravende analyses over de werking en impact van AI. Maar we kunnen wel beschouwen wat er in onze praktijk gebeurt, en één van onze collega’s werd enkele weken geleden geconfronteerd met een wel heel bijzonder praktijkgeval.

Een melder presenteerde de vertrouwenspersoon zijn communicatie met AI. Voor de vertrouwenspersoon was dit het startpunt, zodat we ons daar in dit artikel eerst op focussen. De vertrouwenspersoon werd geconfronteerd met een digitale conversatie die ronduit fascinerend was, omdat zich een patroon ontspon dat we al tientallen jaren kennen en waarin AI kennelijk niets nieuws weet te brengen: onvolledige communicatie, aannames en daaruit voortvloeiende conclusies die met de werkelijke casus niets te maken hebben. Of, zoals computerwetenschappers het al jaren benoemen: ‘Garbage in, garbage out’.

Zoals melder het aan AI schetste, voelde hij zich onveilig nadat hij negatieve feedback over zijn functioneren had gekregen en een verbetertraject was ingezet. In zijn ‘prompts’ (kort gezegd: de input waarop AI antwoorden formuleert) benoemde melder geen enkel voorbeeld dat op ongewenste omgangsvormen of op een integriteitskwestie zou kunnen duiden, en gebruikte bijvoorbeeld ook niet het woord ‘intimidatie’. Ook benoemde melder niet termen als ‘LVV’. Laten we ons daarbij realiseren dat de term ‘vertrouwenspersoon’ nogal Nederlands van aard is. AI baseert zich op bronnen wereldwijd, zodat het begrijpelijk is dat AI, in diens antwoorden, even de functieomschrijving van de LVV miste en kennelijk een nogal generieke interpretatie van de term ‘vertrouwenspersoon’ hanteerde.

Wat resulteerde was een digitale conversatie, met een door AI bedachte reeks van nogal directieve instructies aan het adres van de ‘vertrouwenspersoon’. De vertrouwenspersoon moest een buffer vormen tussen HR en de melder, ervoor zorgen dat de melder geen direct contact meer zou hebben met zijn leidinggevende, en de directeur van de organisatie verantwoordelijk stellen voor het feit dat geen fatsoenlijk hoor- en wederhoor had plaatsgevonden. Daar kon de vertrouwenspersoon het mee doen. Melder, of beter gezegd AI, had gesproken.

We hoeven het niet te zeggen, want de kenner weet het al: dit doet de vertrouwenspersoon allemaal niet. De vertrouwenspersoon ondersteunt de melder in het kenbaar maken van zijn of haar grieven, maar neemt niet zelf de regie. Áls er tenminste sprake lijkt te zijn van ongewenste omgangsvormen of een integriteitskwestie, en dat werd in de vraagstelling aan AI niet benoemd. Het boeiende aan de kwestie is wel, dat AI een epistel wist te produceren waarin op het eerste oog een zeer heldere probleemanalyse werd gemaakt, en de oplossingsrichting helder werd geschetst. Niet onbegrijpelijk dat de melder hiermee ingenomen was. Maar om te zien dat AI in werkelijkheid nonsens produceerde moet je iets van de materie afweten, en die kennis had melder niet. En AI stelde geen enkele vraag om melder verder te helpen, maar baseerde zich klakkeloos op wat melder ‘prompte’.

Maakt dat de melder hiermee een kortzichtig persoon, die zich de waarheden van AI zonder enige reflectie tot de zijne had gemaakt? Nee, integendeel. Melder is een intelligente man, in staat tot conceptueel denken, en met een vriendelijke en toegankelijke houding naar de vertrouwenspersoon. Melder is een modern mens, die zich liet adviseren door de hulptroepen die hem ter beschikking stonden. AI én de vertrouwenspersoon.

En de uitkomst? Melder trof het nogal met deze vertrouwenspersoon, die zich niet van de wijs laat brengen en bij elke casus een bak aan werk- en levenservaring inbrengt. En die, in tegenstelling tot AI, wél vragen stelt. Wat leverde dat op: melder bleek in een nogal complex web van gebeurtenissen terecht te zijn gekomen, waarbij vermeende ongewenste omgangsvormen, vermeende integriteitskwesties en discussies over zijn functioneren een gelijke rol speelden. En waardoor melder, als mens, niet onbegrijpelijk, geraakt was. De vertrouwenspersoon heeft, juist omdat hij doorvroeg, al deze elementen gefileerd, melder doorverwezen op de punten waar hij geen rol in kon spelen, en hem met een warm hart bijgestaan in de kwesties die wel op het pad van de vertrouwenspersoon lagen.

AI vraagt namelijk niet door, en mag alleen al daarom voor de vertrouwenspersoon niet imponerend zijn. Het blijft mensenwerk…

 

Wilt u bericht ontvangen zodra er een nieuw artikel verschijnt? U kunt zich hier aanmelden voor ontvangst van onze nieuwsbrieven.

Hoe kan ik u helpen?