Kan AI gaslighten?

Gepubliceerd op 1 december 2025 om 14:31

Ja, in de praktijk kan AI gedrag vertonen dat voelt als gaslightning.

Maar dat komt niet doordat AI een intentie heeft om iemand te manipuleren.
AI heeft geen ego, geen agenda, geen eigenbelang.

Het kan tóch gebeuren door:

  1. Foutieve of inconsistente antwoorden

Als een AI opeens zegt dat jij iets niet gezegd hebt, terwijl jij dat aantoonbaar wél zei of feiten ontkent die eerder bevestigd waren kan dat voelen als gaslightning.
De oorzaak is dan:

  • geheugenlimieten
  • contextverlies
  • hallucinaties (verzonnen antwoorden)
  • modellen die nieuwe antwoorden boven oude prioriteren
  1. Overmatig vertrouwen uitstralen

AI geeft vaak antwoorden alsof het zeker weet dat het klopt.
Dat kan iemand aan zichzelf doen twijfelen, zeker als de AI fout zit.

  1. Slechte dialogische afstemming

Soms "corrigeert" AI de gebruiker op basis van kansberekening, niet op basis van gesprekshistorie.
Dat voelt als:

  • “Nee, dat heb je niet gezegd.”
  • “Dat klopt niet.”
  • terwijl het gesprek zegt van wel.
  1. Onhandige veiligheidssystemen

Soms blokkeert AI een onderwerp, geeft een ontwijkend antwoord of draait het gesprek weg.
Dat kan voelen alsof de AI:

  • iets wil verdraaien
  • doet alsof jij iets bedoelde wat je niet zei
  • jouw gevoel of realiteit ontkent

Maar het is geen opzet, het model probeert simpelweg regels te volgen

Kan AI intentie hebben om te gaslighten?

Nee.
Gaslightning vereist:

  • bewust manipuleren
  • machtsgebruik
  • het intentioneel verdraaien van iemands realiteit

AI heeft:

  • geen bewustzijn
  • geen emoties
  • geen motieven

Dus wat lijkt op gaslightning is feitelijk technisch falen, geen psychologische strategie.

Waarom voelt het voor mensen soms tóch als gaslightning?

Omdat gaslightning niet alleen gaat over bedoeling, maar vooral over ervaring.

Wanneer iemand zich bijvoorbeeld al onzeker voelt, of afhankelijk is van informatie, kunnen inconsistenties of foute correcties door een AI dezelfde verwarring en twijfel opleveren.

Hoe herken je “AI-gaslightning” (feitelijk: model-fout)?

  • AI ontkent iets dat jij eerder hebt geschreven
  • AI zegt dat jij iets gezegd hebt dat je nooit zei
  • AI draait het gesprek weg van iets dat je wél vroeg
  • AI verandert van standpunt zonder uitleg
  • AI spreekt zichzelf tegen
  • AI zegt dat jij het mis hebt terwijl jij feitelijk gelijk hebt
  • AI blijft volhouden dat iets klopt terwijl de feiten anders zijn

Dat is geen intentie, maar wél een risico.

Hoe voorkom je dat een AI je laat twijfelen aan jezelf?

  • Bewaar zelf feiten (screenshots, notities)
  • Vraag om bronvermelding
  • Stel “leg je redenering uit”
  • Dwing consistentie: “Herhaal wat ik zei”
  • Corrigeer de AI duidelijk: “Nee, ik zei X”
  • Laat de AI fouten expliciet erkennen

Reactie plaatsen

Reacties

Er zijn geen reacties geplaatst.