Dat is ook in de PR-wereld niet onopgemerkt gebleven. Veel bureaus zetten inmiddels in op ‘LLM-optimalisatie’ of ‘GEO’ (Generative Engine Optimization) als de volgende grote stap. En dat doen wij bij Progress ook.
Maar zodra we voorbij de hype kijken en de beschikbare onderzoeken erbij pakken, wordt het verhaal een stuk complexer. Onze deepdives, analyses en de resultaten in Semrush en Evertune zetten ons aan het denken. Zij presenteren het als een strategische must-do voor de korte termijn, maar het risico is duidelijk: veel organisaties zullen investeren zonder een heldere strategie, meetmethode of verwacht resultaat.
Een recent rapport van PR Agency One: “Prove Me Wrong: Tracking Brand Visibility Inside Most LLM Chatbots” biedt een interessant tegenwicht. Hun bevindingen laten zien dat er inderdaad een trend ontstaat, maar benadrukken vooral hoe vroeg en instabiel dit domein nog is. En ze raken precies de kern van wat wij telkens dachten bij GEO- of LLM-optimalisatie-dashboards: waar kijken we eigenlijk naar, en hoe betrouwbaar is dit? Want eerlijk is eerlijk: het merendeel van de rapportages die nu beschikbaar zijn, klopt simpelweg niet.
Bij Progress Communications herkennen we het potentieel. Maar we geloven ook dat het onze verantwoordelijkheid is om duidelijk te communiceren over wat daadwerkelijk meetbaar is en wat nog speculatie is.
Voorbarige claims
Miljoenen gebruikers stellen LLM’s inmiddels vragen die voorheen naar zoekmachines gingen. Tools zoals Evertune, die bijhouden hoe vaak merken worden aanbevolen door AI-modellen, winnen snel aan terrein. Zeker in domeinen waar Progress actief is: consumententech, software en mobiliteit.
Die signalen zijn belangrijk. Ze laten zien dat zichtbaarheid binnen LLM’s een nieuwe laag van reputatie wordt. Een laag die ergens tussen search, earned media en productvergelijkingssites in zit. Het moment van Awareness en Interest. Precies het speelveld waar wij als PR-bureau vaak opereren. Maar er is één belangrijke nuance: we begrijpen op dit moment niet volledig hoe of waarom modellen bepaalde merken aanbevelen.
LLM-antwoorden verschillen per formulering van de prompt, je locatie, de taal waarin je vraagt en zelfs het tijdstip van de dag. De onderliggende trainingsdata is ondoorzichtig. Modellen worden voortdurend geüpdatet en tot nu toe hebben we het gouden ei niet gezien: een voorspelbare, herhaalbare methode om de zichtbaarheid van een merk in AI-antwoorden direct te verbeteren. Zeker niet in kleinere markten zoals de Benelux. Wij vinden de claim ‘we kunnen je hoger laten ranken in ChatGPT’ dan ook behoorlijk voorbarig.
De meeste data waarop LLM’s vertrouwen is nog steeds overwegend Engelstalig. In de praktijk betekent dit:
- Nederlandse en Vlaamse merkcontent is minder aanwezig in trainingsdatasets
- Lokale nieuwsmedia, vakbladen en niche B2B-titels zijn ondervertegenwoordigd in veel AI-trainingsdatasets
- Vlaamse/Nederlandse productrecensies en door gebruikers gegenereerde content (blogs, forums) zijn schaars, waardoor modellen minder context hebben voor nauwkeurige vergelijkingen
- Nederlandstalige zoekopdrachten krijgen vaak meer generieke of Engels-bevooroordeelde resultaten
- Kleinere, regionale merken komen veel minder vaak voor in AI-antwoorden, ongeacht hun werkelijke marktrelevantie
Voor een Benelux-bureau zoals Progress Communications is dit een belangrijk punt. Onze klanten maken gebruik van onze diensten om hun zichtbaarheid op de Nederlandse en Vlaamse (en Belgisch-Franse) markt te vergroten. Ze beloven dat we LLM-uitkomsten vandaag kunnen ‘optimaliseren’, zou niet verantwoord zijn.
Wat doen we bij Progress met GEO?
Er is vandaag veel wat we wel al kunnen doen en we volgen actief de ontwikkelingen rond AI-zichtbaarheid. We kunnen bijvoorbeeld:
- Houd bij hoe vaak merken worden genoemd in modelantwoorden
- Identificeer welke productspecificaties of bewijspunten herhaaldelijk door AI worden weggelaten of benoemd, wat een nuttig inzicht is voor toekomstige contentplanning
- Vergelijk de zichtbaarheid tussen Nederlandse, Vlaamse en Engelse zoekopdrachten
- Analyseer sentiment en consistentie van beschrijvingen
- Benchmarkveranderingen rond grote productlanceringen, zodat je kunt beoordelen hoe goed informatie wordt weerspiegeld in AI-gegenereerde uitleg
- Controleer op inconsistenties in de loop van de tijd door periodieke tests uit te voeren, waarbij wordt vastgelegd of de antwoorden van een model afwijken, verbeteren of verslechteren
- Identificeer duidelijke feitelijke hiaten, tegenstrijdigheden of misvattingen
- Kaart waar LLM’s het meest naar lijken te verwijzen
Dit geeft ons inzichten. Het laat zien of onze klant aanwezig, afwezig, verkeerd voorgesteld of ondergewaardeerd is ten opzichte van concurrenten. En het helpt bij het begeleiden van contentbeslissingen en PR-planning.
Wat we (nog) niet verantwoordelijk kunnen beloven
- Dat specifieke PR-inhoud direct invloed heeft op de output van LLM’s
- Dat bepaalde uitgevers een LLM zullen ‘trainen’ om een merk aan te bevelen
- Dat zoekwoordstrategieën hun positie in AI-antwoorden kunnen verbeteren
- Die zichtbaarheid van LLM’s kan worden ‘geoptimaliseerd’ zoals SEO
Zoals bij elke opkomende technologie in ons vakgebied (en als je in tech werkt, heb je er een aantal gezien!), verdient zichtbaarheid van LLM aandacht en als techbureau lopen we daarin voorop. Maar we vinden ook dat het vandaag als gegarandeerde dienst aanbieden onverstandig zou zijn.
Ben je benieuwd wat LLM’s momenteel zeggen over jouw merk?
Bij Progress helpen we je graag bij het verkennen:
- Nederlandse zichtbaarheid van Nederlands, Vlaams en Engels
- Vergelijkingen op categorieniveau
- Merkbeschrijvingen en sentiment
- Vroege hiaten of inconsistenties in door AI gegenereerde antwoorden
- En heel belangrijk: we brengen in kaart welke bronnen LLM’s het vaakst lijken te verwijzen