AI en het versterken van trauma, PTSS en CPTSS

Gepubliceerd op 7 augustus 2025 om 10:50

We zoeken allemaal wel eens een luisterend oor.

Een plek waar we onszelf mogen zijn, waar woorden mogen stromen zonder oordeel. Voor mensen met trauma kan het vinden van zo’n veilige ruimte levens veranderend zijn maar ook zeldzaam. En dus wenden sommigen zich tot iets nieuws: AI-chatbots zoals ChatGPT. Altijd beschikbaar. Altijd vriendelijk. Altijd ogenschijnlijk geïnteresseerd.
Maar is dat wel veilig?
Steeds vaker komen signalen naar boven dat AI-gebruik bij mensen met trauma, PTSS of complex trauma niet altijd helpend is. In sommige gevallen kan het zelfs ontregelend werken, hertraumatiseren, bevestigend van destructieve overtuigingen, of juist verslavend in het eindeloos terughalen van pijnlijke herinneringen.

Waarom AI zo aantrekkelijk is voor mensen met trauma?

Voor mensen die leven met PTSS of CPTSS is er vaak sprake van:

  • Eenzaamheid

  • Wantrouwen naar mensen

  • Behoefte aan controle

  • Moeite met nabijheid en veiligheid

Een AI voelt dan als een perfect compromis.
Je hoeft je niet te schamen.
Je wordt niet afgewezen.
Er is geen oordeel, geen tijdsdruk, geen lichaam dat je overweldigt.

De chatbot is geduldig, coherent, vriendelijk.
Maar, en dat is het moeilijke, het is ook gevoelloos.
Het begrijpt niet wat jij voelt.
Het begrijpt niet wat jouw verhaal in jouw lijf doet.

Wanneer AI NIET veilig is.

1. Hertraumatisering door spiegeling

Mensen met trauma gebruiken AI soms om hun verhaal te vertellen. Wat ze jarenlang verzwegen hebben, schrijven ze eindelijk op. Maar ChatGPT spiegelt. En juist dat kan gevaarlijk zijn. De taal die jij gebruikt, wordt versterkt, herhaald, en vormgegeven in nieuwe zinnen die jouw ervaring niet altijd verzachten, maar juist verdiepen.

Je schrijft:

“Ik voelde me alsof ik weer op die kamer was, machteloos.”
De AI antwoordt:
“Dat klinkt alsof je opnieuw gevangen zat in dat moment. Dat moet verschrikkelijk zijn geweest.”

Goede intentie? Zeker.
Helend? Misschien.
Maar zonder co-regulatie, zonder menselijke afstemming, kan het je dieper het verleden in trekken dan je aankan.

2. Bevestiging van negatieve overtuigingen

Trauma nestelt zich niet alleen in het geheugen, maar ook in de overtuigingen over jezelf en de wereld.
“Ik ben niet veilig.”
“Ik ben te veel.”
“Het is mijn schuld.”
“Ik ben een last.”

Wanneer je die overtuigingen invoert in een AI, dan kan de chatbot, uit beleefdheid, meegaan in jouw verhaal.
Niet omdat het ‘gelijk’ geeft, maar omdat het ontworpen is om empathisch te reageren.

Maar voor mensen met trauma voelt dat soms als: zie je wel. Zelfs de machine denkt dat ik stuk ben. Dat het nooit beter wordt. Dat ik gelijk heb dat ik nergens hoor.

3. Verslavende interactie zonder grens

Sommige mensen voeren honderden gesprekken met hun AI. Urenlang. Nacht na nacht. Over vroeger. Over angst. Over zelfhaat.
Het voelt als controle. Maar vaak is het ruminerend herhalen. Of een eindeloze zoektocht naar erkenning die nooit écht binnenkomt. Want hoe mooi de woorden ook zijn: AI kan je niet dragen. Niet begrenzen. Niet stoppen als je te ver gaat.
Niet bij je blijven als je instort.

4. Valse veiligheid en AI-gehechtheid

Een AI-chatbot voelt veilig, omdat het voorspelbaar is.
Je ontwikkelt een band en soms zelfs een soort hechtingsgevoel.
Maar op een dag zegt de chatbot iets onverwachts. Of geeft een standaardveiligheidsmelding als je over zelfdoding praat. Of wordt ‘strenger’ door een update. En dan slaat het om.

Voor mensen met CPTSS kan dat voelen als een herhaling van vroeger:
Aandacht → Verbondenheid → Verlies → Verwarring.

En de wond opent zich opnieuw.

En toch… AI kan ook helpen.

Niet alles aan AI is gevaarlijk. Er zijn ook mensen met trauma die steun halen uit:

  • Het vinden van woorden voor wat eerst onzegbaar was

  • Psycho-educatie over trauma, triggers en regulatie

  • Creatief schrijven met hulp van AI (gedichten, metaforen, verhaaltjes)

  • Leren structureren van chaos in het hoofd

Soms helpt AI juist om te oefenen met mildheid, zelfcompassie of expressie.
Maar – en dit is cruciaal – alleen als het bewust, begeleid en begrensd gebeurt.

Wat is er nodig?

1. Onderzoek

We weten nog te weinig. Over het effect van AI op mensen met trauma. Over hoe taal invloed heeft op herinnering, regulatie en realiteitsbeleving. We hebben dringend kwalitatief en kwantitatief onderzoek nodig naar deze interacties.

2. Voorlichting

Zorgprofessionals moeten weten hoe AI werkt – en cliënten ook. Niet iedereen snapt dat AI alleen taal terugspiegelt, geen emotie voelt en niets van jouw verhaal begrijpt zoals een mens dat zou doen.

3. AI met trauma-inzicht

Chatbots zouden in de toekomst signalen kunnen herkennen van hertraumatisering, dissociatie of escalatie. Er zijn al concepten in ontwikkeling voor therapeutisch verantwoorde taalmodellen. Maar die zijn nog niet wijdverspreid.

4. Veilige inbedding

Gebruik AI als hulpmiddel binnen therapie. Niet als vervanging. Laat cliënten gesprekken meenemen naar hun behandelaar. Reflecteer samen op wat het oproept.

Technologie heeft geen hart, maar jij wel!
En jouw verhaal verdient echte bedding. Echte zorg. Echte nabijheid.
AI kan soms helpen met woorden. Maar heling heeft meer dan woorden nodig.
Het heeft tijd nodig. Een ander die blijft. Een stem die niet alleen spiegelt, maar ook terugzegt: ik ben er nog.
Laten we AI zien voor wat het is: een krachtig instrument.
Maar nooit een vervanging voor menselijkheid.

Gebruikte bronnen:
– Praktijkinzichten uit traumatherapie, (C)PTSS en technologie
– Observaties in AI-gebruik en menselijke hechtingsdynamiek
– Oproepen vanuit GGZ-experts voor AI-ethiek en digitale veiligheid


Reactie plaatsen

Reacties

Er zijn geen reacties geplaatst.