AI is overal – en je agency gebruikt het waarschijnlijk al. Of het nu gaat om het opstellen van content, het verfijnen van doelgroepsegmenten of het optimaliseren van campagnemateriaal, AI is inmiddels de olifant in de kamer.
Als marketing- of communicatiemanager in een Europees B2B-bedrijf ben je niet alleen verantwoordelijk voor de boodschappen die je agency produceert, maar steeds vaker ook voor hóe ze worden geproduceerd. En nu de EU AI Act van kracht is, wordt het tijd om scherpere vragen te stellen.
Je hoeft niet elk detail van de tools van je agency te micromanagen, maar je hebt wél duidelijke afspraken, transparantie en verantwoorde werkwijzen nodig. Laten we bekijken hoe je daar komt.
Waarom het AI-gebruik van je agency belangrijker is dan je denkt
De aantrekkingskracht van AI is duidelijk: sneller resultaat, bredere testmogelijkheden en (mogelijk) lagere kosten. Maar onder de motorkap is het meer dan zomaar een slimme assistent.
Wanneer je agency AI inzet op deliverables te genereren, nemen ze beslissingen over:
-
Welke data wordt gebruikt om het model te trainen of aan te sturen
-
Hoe die data wordt opgeslagen of bewaard
-
Of de outputs origineel, ethisch en juridisch waterdicht zijn
Als de verkeerde afbeelding in een campagne belandt, of een bevooroordeeld algoritme de verkeerde doelgroep target, krijgt jouw merk de klap – niet de tool. En onder de EU AI Act kan het zelfs zijn dat je moet uitleggen hoe het gebruikte systeem werkt als dit wordt aangemerkt als “hoog risico”.
Daarom is inzicht in het AI-gebruik van je agency geen “nice to have” meer, maar een absolute leiderschapsverantwoordelijkheid.
In een traditionele agencyrelatie zoek je naar frisse ideeën, een sterke strategie en snelle oplevering. Met AI in de mix heb je nu nog vier extra vereisten:
Transparantie
Vraag je agency om bekend te maken welke AI-tools ze gebruiken en waar in het proces. Of het nu ChatGPT, Midjourney, Adobe Firefly, Google Veo3 of iets eigens is: je hebt het recht om te weten hoe het werk tot stand komt.
Menselijke controle
Geen enkele tekst, visual of ander output mag de deur uit zonder menselijke review. AI moet de efficiëntie verhogen – niet de verantwoordelijkheid uit handen nemen.
Datascheiding
Als jouw merkassets of doelgroepdata worden gebruikt om modellen te trainen, mag dat model niet opnieuw ingezet worden bij andere klanten. Vraag om garanties die je intellectueel eigendom en vertrouwelijke informatie beschermen.
Duidelijkheid over eigendom
AI vervaagt de grens tussen creëren en cureren. Zorg dat je contracten of statements of work bevestigen dat jij eigenaar bent van de eindoutput – ongeacht het gebruikte hulpmiddel.
De compliance curve: je verantwoordelijkheden onder de EU AI Act
De EU AI Act, aangenomen in 2024, is de meest uitgebreide AI-regelgeving ter wereld – en raakt niet alleen AI-ontwikkelaars. Ze geldt ook voor bedrijven die AI gebruiken of de resultaten ervan toepassen, inclusief via partners zoals agencies.
Waarom dit ertoe doet:
-
Als je agency AI inzet voor profilering, doelgroepselectie of personalisatie, kan dit vallen onder de categorie "hoog risico" in de regelgeving
-
Als opdrachtgever kun jij aansprakelijk gesteld worden bij schendingen, tenzij er goed toezicht is geregeld
-
Je wordt geacht traceerbaarheid, menselijke controle en transparantie te waarborgen bij AI-generated content of beslissingen
Kortom: je kunt het risico niet uitbesteden. Je kunt de uitvoering delegeren – maar niet de verantwoordelijkheid.
Hoe je vertrouwen en afstemming met je agency opbouwt
Het goede nieuws: het AI-gesprek kan je agencyrelatie juist versterken – mits je het goed aanpakt. Begin met:
-
AI-gebruik verplicht laten opnemen in elke projectbriefing
-
Vragen naar traceerbaarheid of auditdocumentatie (zeker bij grote campagnes)
-
Alleen werken met partners die op de hoogte zijn van GDPR, de EU AI Act en de ethiek van de sector
-
Transparantie tot kernwaarde maken, niet enkel een compliance-vinkje
Maar laten we eerlijk zijn: niet elke verwachting is realistisch.
Veel corporate professionals verwachten dat agencies werken onder dezelfde beveiligings- en compliancecondities als interne enterprise-teams. In werkelijkheid is dat vaak niet haalbaar. Agencies:
-
Gebruiken meestal een mix van commerciële SaaS-tools zonder dedicated private infrastructuur
-
Hebben geen controle over hoe foundation models (zoals ChatGPT) prompts opslaan of bewaren
-
Kunnen geen enterprise-niveau vrijwaring of IP-garanties geven op outputs van third-party AI-tools
Dat betekent niet dat agencies nalatig zijn—het betekent dat de tools zelf niet zijn gebouwd met dezelfde controles die corporates verwachten.
In plaats van te sturen op starre regels, stuur je beter op:
-
Duidelijkheid over welke tools worden gebruikt en hoe data wordt behandeld
-
Grenzen, bijvoorbeeld: "geen klantdata gebruiken voor training zonder schriftelijke toestemming"
-
Menselijk beoordelingsvermogen: zorg dat ervaren professionals de creativiteit blijven checken
Verantwoord AI-gebruik gaat niet om perfectie. Het gaat om eerlijke samenwerking – en weten welke vragen je moet stellen.
Living Stone ondersteunt B2B-leiders die AI gedurfd, maar verantwoord willen inzetten. Als je agencyrelaties veranderen, helpen wij je ook je verwachtingen mee te laten evolueren. Contacteer ons vandaag en ontdek hoe we je kunnen helpen je doelen te behalen. Contacteer Anne-Mie Vansteelant anne-mie.vansteelant@livingstone.eu
Over deze post
Deze blogpost werd ontwikkeld op basis van een briefing van onze juridische raadgever, met ondersteuning van ChatGPT, op basis van prompts en strategische input van het Living Stone-team. De content werd nagekeken en aangepast door onze editor om beter aan te sluiten bij de specifieke noden en realiteit van Europese B2B-marketingmanagers.