Website Logo Dark Mode
Website Logo Light Mode

AI in klantenservice: de mens het laatste woord | RippleCom

AI in klantenservice: waarom de mens het laatste woord houdt.

AI.

Overal.

Bots, agents.

Gesprek of regie.

De klant kiest. Klikt weg.

Geen review. Geen klacht. En de klant verdwijnt.

Werkt AI in klantenservice echt?

Het korte antwoord: nee, in elk geval niet als AI het gesprek zelf doet.

Onderzoeksbureau Y.digital en marktonderzoeker Markteffect publiceren elk jaar de Nationale Voice Monitor. De zevende editie (2026, ruim 1.000 respondenten) laat zien dat ongeveer 12% van de vragen aan een chatbot of een telefonische spraakassistent goed wordt beantwoord. Slecht werkende bots staan inmiddels bovenaan de lijst van grootste irritaties bij klantenservice. De voorkeur voor menselijk contact is in 2026 niet afgenomen, ondanks alle vooruitgang op AI-gebied. Telefoon staat met 77% in de top-3 van favoriete contactmanieren. Daarna komt e-mail (59%), live chat (37%) en WhatsApp (29%). Chatbots staan onderaan met 3%.

Slecht werkende bots staan inmiddels bovenaan de lijst van grootste irritaties bij klantenservice

Onderzoeksbureau Newcom brengt het verhaal van de andere kant. De AI Monitor 2026 (maart 2026, met 2.504 respondenten) laat zien dat 7,2 miljoen Nederlanders tussen 18 en 65 jaar AI gebruiken in hun dagelijks leven. Op de werkvloer zijn dat er 4,6 miljoen. AI is in een paar jaar tijd doorgebroken van iets nieuws naar iets gewoons. Twee dingen zijn dus tegelijk waar. AI is overal, en mensen zijn er goed in geworden. En tegelijk willen Nederlanders een mens spreken zodra het ergens om gaat.

AI gaat te snel, met te weinig controle vooraf.

Wat zijn de gevaren van AI in klantgesprekken?

Drie soorten gevaar.

Het eerste is juridisch. Jurist Arnoud Engelfriet schreef in april 2026 op zijn blog Ius Mentis dat een chatbot die dingen verzint (in vaktaal “hallucineert”) een misleiding van klanten oplevert. Een chatbot die zegt dat je geen telefonische klantenservice hebt terwijl je die wél hebt? Boete. De achterliggende regel is simpel. Je bent als bedrijf zelf verantwoordelijk voor wat je systemen zeggen, of dat nu een mens of een bot is.

Het tweede is privacy. De Autoriteit Persoonsgegevens, de Nederlandse privacy-toezichthouder, waarschuwde in januari 2026 nog eens voor het delen van persoonsgegevens via AI-chatbots. Aanleiding: meerdere datalekken, onder andere bij een huisartsenpost en een telecombedrijf. In maart 2026 verscheen de zesde editie van het Algoritme- en AI-Risicorapport, waarin de toezichthouder zijn risicoteller op rood zette. De boodschap: het gaat te snel, met te weinig controle vooraf.

Het derde is naleving van de wet. Vanaf 2 augustus 2026 gelden onder de Europese AI-wet (de AI Act) nieuwe regels. Klanten moeten weten dat ze met een AI-systeem praten en niet met een mens. Op grond van artikel 99 van de AI Act lopen boetes voor zogeheten hoog-risicosystemen op tot 15 miljoen euro of 3% van de wereldwijde jaaromzet, afhankelijk van welk bedrag hoger is. Voor verboden AI-praktijken loopt het maximum op tot 35 miljoen of 7%. Voor het MKB betekent zo’n boete in de praktijk: één misstap kan de zaak de kop kosten.

Een Amerikaanse cloud betekent dat afspraken met je klanten in feite onder Amerikaans recht vallen.

Mag AI in klantenservice volgens de AVG?

Ja, onder voorwaarden.

De Autoriteit Persoonsgegevens schreef in februari 2026 een uitgebreid advies met de titel “Verantwoord vooruit“. Drie eisen vallen daarin op. Risico’s moet je vooraf in kaart brengen. De controle over je eigen gegevens moet je behouden. En je medewerkers moeten begrijpen hoe het systeem werkt. De plek waar je gegevens staan, is daarbij belangrijk. Zodra klantgegevens buiten Europa worden verwerkt of opgeslagen, lopen de juridische risico’s snel op. Een Amerikaanse cloud betekent dat afspraken met je klanten in feite onder Amerikaans recht vallen. Veel bedrijven komen daar pas achter als het te laat is.

AI vooraan in het gesprek wordt afgewezen.

Wanneer accepteren mensen AI wel?

De Voice Monitor laat een mooi patroon zien. Mensen zijn negatief over AI op plekken waar nuance telt. AI die je doorvraagt waarvoor je belt en je dan doorstuurt naar een medewerker zakte van 59% positief in 2025 naar 52% in 2026. AI die jou herkent voordat een medewerker je spreekt zakte van 55% naar 49%. Op één punt blijft de waardering hoog. AI die ná het gesprek een samenvatting maakt voor de medewerker scoort 40% positief, 38% neutraal en 22% negatief.

De boodschap is helder. AI op de achtergrond, in dienst van de medewerker en de vastlegging, wordt geaccepteerd. AI vooraan in het gesprek wordt afgewezen. Dat onderscheid is geen toeval. Soms is geen antwoord ook een antwoord. Een mens kan zwijgen, terugbellen, een dag laten bezinken, doorvragen. Een mens herkent dat het stil blijft aan de andere kant. AI vult de stilte met een antwoord, en het verkeerde antwoord is duurder dan geen antwoord.

Die mens heeft overzicht, omdat alles op één plek binnenkomt.

Hoe gebruikt RippleCom AI dan wel?

Achter de schermen, niet in het gesprek.

RippleCom is de alles in 1 rondom het zakelijke telefoonnummer. Bellen, sms en WhatsApp komen samen op één nummer, vastgelegd en terug te vinden. AI doet daar precies wat de Voice Monitor laat zien dat klanten ervan accepteren. Gesprekken sorteren op onderwerp. Samenvattingen schrijven voor de medewerker. Planningen voorstellen. Dossiers ordenen. Het gesprek zelf is voor een mens. De klant praat met iemand die de hele geschiedenis op het telefoonnummer kan terugzien. Die mens heeft overzicht, omdat alles op één plek binnenkomt.

Daarmee zijn drie problemen tegelijk opgelost. Het is AVG-proof, want gegevens staan op Europese servers en de communicatie loopt via de officiële zakelijke WhatsApp van Meta. Er is geen gedoe over wie wat heeft gezegd namens het bedrijf, want een mens antwoordt en alles staat netjes vast. En er is geen risico op een chatbot die in jouw naam iets belooft wat niet kan, met een rechtszaak achteraf.

De cijfers passen bij die keuze. Orthodontiepraktijk OrthoEuregio bracht no-shows met 75% terug. WhatsApp-berichten worden gemiddeld door 98% van de ontvangers gelezen. Gemeente Borne bereikte 20% meer inwoners in een verduurzamingsproject. Geen enkel resultaat ontstond door een bot die deed alsof hij een mens was. Ze ontstonden omdat een mens via het juiste kanaal op het juiste moment de juiste vraag stelde.

AI hoort op de achtergrond. Niet aan tafel.

 

RippleCom zet AI in waar het werkt: classificeren, samenvatten, structureren, vastleggen, herleidbaar maken.

Het gesprek blijft bij de mens. Eén telefoonnummer.

Bellen, SMS, WhatsApp. Eén plek.

Zodat het aankomt.

Mens antwoordt.

Altijd.

Beheersbaar.

 

Weten hoeveel jij verliest per maand? ➡️ Communication Scan


“`

 

Recente artikelen

Populaire artikelen

Weten of het past? In 30 minuten is het helder.

In het regiegesprek bespreken we bereikbaarheid, verantwoordelijkheid en privacy.
Het gaat over jouw organisatie. 
We zeggen eerlijk of RippleCom (al) past.
We zijn
24/7
bereikbaar.
Reactie binnen
24
uur
Vraag het ons.
Website Logo Dark Mode
Website Logo Light Mode
Blijf op de hoogte van relevante updates.
We delen alleen wijzigingen die invloed hebben op bereikbaarheid, regie en compliance. Geen ruis. Geen marketing.
Volg ons op:
© 2026 RippleCom®. Alle rechten voorbehouden. RippleCom BV is een onafhankelijke dienstverlener en niet gelieerd aan Meta Platforms, Inc.
WhatsApp® is een geregisteerd handelsmerk van Meta Platforms, Inc.
Ontwikkeld met 🩵 in Hengelo, Nederland.

RippleCom

Laatst gezien om 17:15
Hoe kan ik helpen? 👋