Het glazen agency: waarom transparantie over AI en pricing geen keuze meer is
Ooit verdienden agencies aan wat klanten niet wisten. Die tijd is voorbij.
Er is een moment geweest - niet zo lang geleden - waarop een klant naar de factuur keek, het totaal zag, en dacht: “Ik weet eigenlijk niet wat hier precies voor betaald wordt, maar het klinkt plausibel.” Die klant vertrouwde op informatieasymmetrie. Jij wist hoe lang dingen duurden. Jij wist welke tools je gebruikte. Jij wist wat de echte kost was.
Dat moment is over.
Vandaag zit diezelfde klant thuis met ChatGPT, Claude of Gemini. Hij genereert zelf conceptteksten, laat AI briefings samenvatten, gebruikt automatisch rapporten en kent de tools minstens even goed als zijn agency. De black box is kapot. En agencies die dat nog niet hebben gemerkt, merken het straks - op het slechtst mogelijke moment: wanneer een klant vertrekt zonder het hardop te zeggen.
Het zwijgen wordt uitgelegd als schuld
Laten we beginnen met het ongemakkelijke deel.
Wanneer je als agency niets zegt over hoe je AI gebruikt - en zeker niet over hoe dat je prijsstructuur beïnvloedt - maakt de klant zelf de rekening op. En die rekening is zelden in jouw voordeel. Onderzoek van de 2025 Edelman Trust Barometer is duidelijk: voor het eerst staat vertrouwen op gelijke voet met prijs en kwaliteit als aankoopfactor. Vertrouwen is een nieuw concurrentiepunt: net zoals merken moeten concurreren op prijs en kwaliteit, moeten ze nu ook concurreren op vertrouwen.
En zwijgen over AI-gebruik tast dat vertrouwen aan. Wanneer je niets zegt over AI, maken klanten hun eigen aannames: “Ze gebruiken het waarschijnlijk en zeggen het niet”, of “Als ze AI gebruikten, zouden ze het vermelden - dus ze lopen achter”, of “Hun prijzen lijken hoog voor iets wat AI sneller doet.” Geen van die aannames is per se correct. Maar de vraag is: vind je het oké dat ze worden gemaakt?
De keiharde formulering komt van PwC: klanten, leveranciers en zakenpartners zijn zich steeds meer bewust van het feit dat AI informatieasymmetrie kan versterken en een bedrijf in staat kan stellen oneerlijk voordeel te halen. Zelfs legale bedrijfspraktijken kunnen, wanneer ze slecht worden gecommuniceerd, vertrouwen ondermijnen.
In gewone taal: je hoeft niets verkeerds te doen. Je moet het gewoon uitleggen.
Het paradoxale vertrouwensprobleem
Nu wordt het ingewikkeld. Want transparantie over AI is niet simpelweg “meer zeggen = meer vertrouwen”.
Onderzoekers Schilke en Reimann van de University of Arizona publiceerden in 2025 een verrassende studie in Organizational Behavior and Human Decision Processes. Dertien experimenten tonen consistent aan dat actoren die hun AI-gebruik bekendmaken minder vertrouwen krijgen dan actoren die dat niet doen. Dit geldt ongeacht de manier waarop de disclosure is geformuleerd, of het verplicht of vrijwillig is, en of de AI-betrokkenheid al dan niet bekend was.
Dat klinkt als een argument voor zwijgen. Het is dat niet.
De studie kijkt naar generieke percepties van individuen die iets onthullen aan onbekenden. De agency-klantrelatie is fundamenteel anders: hier gaat het om een langdurig partnerschap waarbij de klant uiteindelijk toch ontdekt wat je doet - de vraag is alleen wanneer, en op wiens initiatief.
De betere interpretatie: het negatieve vertrouwenseffect is sterker wanneer AI-gebruik wordt ontmaskerd dan wanneer het proactief wordt bekendgemaakt. Anders gezegd: ontdekking is altijd erger dan disclosure. Wie zwijgt en dan gepakt wordt, verliest het dubbel.
De drie misverstanden over AI-transparantie
Misverstand 1: “Klanten willen weten welke tools we gebruiken.”
Nee. Klanten willen weten of hun belangen beschermd zijn. Ze willen weten dat de kwaliteit gewaarborgd is, dat hun data veilig is, en dat het oordeel en de strategie nog steeds van mensen komt. Welke LLM je exact gebruikt voor de eerste draft van een persbericht: niemand die erom ligt.
Het evenwicht is moeilijk te vinden: te weinig transparantie wekt argwaan, maar te veel overweldigt - en vervaagt precies de duidelijkheid die transparantie moet bieden. De Deloitte-nuance is terecht: je hoeft geen technische handleiding te leveren. Je moet een eerlijk verhaal vertellen.
Misverstand 2: “Als we zeggen dat we AI gebruiken, willen klanten een lagere prijs.”
Dit is de angst die agencies ‘s nachts wakker houdt. En ze is begrijpelijk, maar verkeerd geframed. De klant vraagt geen lagere prijs omdat je AI gebruikt. De klant vraagt een lagere prijs als hij denkt dat je AI gebruikt maar hem het oude tarief aanrekent alsof dat niet zo is.
Als AI je team in staat stelt sneller te leveren, zou dat je marge moeten verbeteren - niet automatisch je honorarium verlagen. Klanten betalen niet voor toetsaanslagen. Ze betalen voor resultaten, geïnformeerd door professioneel inzicht. Dat is de omkadering die het verschil maakt. Niet: “we zijn sneller geworden”. Wel: “onze expertise wordt nu ondersteund door betere tools, en de output is sterker dan ooit.”
Misverstand 3: “Transparantie is een ethische verplichting, geen commerciële keuze.”
Beide zijn waar - maar het tweede argument is krachtiger voor agency owners die liever in spreadsheets denken dan in filosofie.
Een AI-disclosure statement is geen kwestie van ethiek. Het gaat over het beschermen en communiceren van je waarde. Wanneer je merkstrategie helder is en je AI-standpunt transparant, hoef je je tarieven niet te verantwoorden. Klanten begrijpen waarvoor ze betalen: jouw expertise, jouw oordeel, jouw kwaliteitsnormen, en het strategisch denkvermogen dat geen AI kan vervangen.
Transparantie is een positioneringsinstrument. Agencies die het goed doen, zeggen effectief: “Wij hebben niets te verbergen, want onze waarde zit niet in het verbergen van informatie. Onze waarde zit in wat we met die informatie doen.”
Wat klanten daadwerkelijk willen horen
Het Zendesk-onderzoek uit 2025 - met meer dan 10.000 respondenten in tien landen via YouGov - is concreet over wat mensen nodig hebben om te vertrouwen. Consumenten wereldwijd geven drie prioriteiten aan die hun bereidheid om AI te vertrouwen vergroten: databeveiliging en privacy (57%), transparantie over hoe beslissingen worden genomen (48%), en de beschikbaarheid van menselijk toezicht (46%).
Drie prioriteiten. Vertaald naar de agency-context:
1. Databeveiliging en privacy. Waar gaat klantdata naartoe? Wordt vertrouwelijke informatie ingevoerd in publieke AI-tools? Heeft de klant enig recht te weten dat zijn merkstrategie door een extern model is verwerkt? Dit zijn geen hypothetische vragen. Dit zijn vragen die slimme marketingdirecteurs al stellen bij de volgende evaluatie.
2. Transparantie over hoe beslissingen worden genomen. Niet het technische hoe - het strategische hoe. Welke keuzes worden gemaakt door mensen en welke worden ondersteund door AI? Wie valideert wat? Waar zit de menselijke redacteur in het proces?
3. Menselijk toezicht. Dit is de geruststelling die het meest telt. Niet “wij gebruiken AI”, maar “wij gebruiken AI en onze senior mensen bewaken het resultaat.” Dat is het verschil tussen een tool en een systeem met governance.
IPRA’s ethische standaarden benadrukken dat het bekendmaken van AI-gebruik in communicatie vooraf moet gebeuren - voor het werk begint. Dit voorkomt misverstanden en stelt duidelijke verwachtingen. Wanneer klanten begrijpen hoe AI-tools je werk ondersteunen - en waar menselijke expertise onvervangbaar blijft - verdiept het vertrouwen in plaats van te eroderen.
De vier dingen die elke agency nu moet regelen
1. Een AI-beleid voor klantcontracten
Geen roman. Drie alinea’s. Welke tools gebruik je, voor welke types werk, hoe bescherm je klantdata, en wie draagt eindverantwoordelijkheid voor het resultaat. Dit gaat in de serviceovereenkomst - niet als bijlage die niemand leest, maar als sectie die je actief bespreekt bij de onboarding.
Het argument van de IAB AI Transparency and Disclosure Framework (januari 2026) is hier nuttig: disclosure is alleen vereist wanneer AI de authenticiteit, identiteit of representatie op een manier beïnvloedt die consumenten zou kunnen misleiden. Routineuze productiestaken en achtergrond-AI-tools hoeven niet afzonderlijk te worden gemeld. Je hoeft dus niet elke tool te vermelden. Je hoeft een eerlijk kader te bieden.
2. Een heldere tariefopbouw
Dit is het deel waar agencies het meest van zweten - en ook het deel dat het meest loont als je het goed doet.
De vraag die klanten stellen - bewust of niet - is: “Betaal ik voor uren of voor waarde?” Als je overstapt naar waarde-gebaseerde of outcome-based pricing, maakt het gebruik van AI de deliverable niet goedkoper. Het maakt de deliverable beter bij gelijkblijvende prijs, of dezelfde kwaliteit sneller. Dat is een verhaal dat je kunt verkopen.
Wie nog op uurbasis werkt en AI gebruikt zonder dat te communiceren, creëert een tijdbom. Vroeg of laat rekent een klant zelf uit dat jouw “40 uur copywriting” in werkelijkheid 8 uur is geworden - en dan heb je een probleem dat verder gaat dan een factuur.
3. Een interne governance op AI-gebruik
Dit is voor jezelf even hard als voor de klant. Wie in je team valideert AI-output voordat het de deur uit gaat? Welke functies mogen AI-gegenereerd werk direct naar de klant sturen en welke niet? Wat is je protocol als AI foutieve informatie levert?
Agencies worden aangeraden om alle tools en workflows te auditeren, te identificeren waar AI drafts, analyses of personalisaties uitvoert - zodat er duidelijkheid is over de schaal en reikwijdte van de invloed. Stel duidelijke beleidsregels op die ethische disclosure en menselijk toezicht bij elke stap verankeren.
Dat klinkt formeel. In de praktijk is het een halfuur werk met je team: wie checkt wat, en hoe. Geen beleidsdocument van 40 pagina’s nodig.
4. De proactieve AI-update in klantreviews
Bij elke kwartaalreview of strategisch gesprek: benoem hoe je AI-gebruik is geëvolueerd. Niet als verontschuldiging, niet als technische briefing, maar als onderdeel van het gesprek over hoe jullie samenwerking sterker wordt. “We gebruiken X nu ook voor Y, wat ons in staat stelt Z sneller/beter te leveren.”
Dat is het gesprek waarna een klant naar huis gaat met het gevoel dat ze een partner hebben die proactief denkt. Geen enkele klant verlaat een agency die hem regelmatig verrast met inzichten en verbeteringen.
Het gaat niet over tools. Het gaat over vertrouwen.
Er is een reden dat de onderzoekers van Deloitte schrijven dat je vertrouwen als een productfeature moet behandelen. Consumenten belonen tech-aanbieders die niet alleen slimme en gepersonaliseerde ervaringen leveren, maar dit doen op een manier die hun data beschermt, hun autonomie respecteert en hun vertrouwen verdient. Vertrouwen is geen nice-to-have - het is een groeistrategie.
Dat geldt voor agencies precies zo hard als voor softwarebedrijven.
De agencies die de komende jaren weten te overleven in een landschap waar klanten steeds AI-vaardiger worden, zijn niet de agencies die het best verbergen wat ze doen. Het zijn de agencies die het verhaal het beste beheersen over waarom hun werk waardevol is - ondanks, of liever: dankzij, de tools die ze inzetten.
Vertrouwen is het nieuwe tariefsargument. En je bouwt het niet op door te zwijgen.
IKAg helpt Belgische en Nederlandse agency owners bij het bouwen van sterkere, winstgevender en toekomstbestendige bureaus. Wil je sparren over je AI-beleid of je tariefstructuur? Neem contact op via agencies.ikag.be.



