Geactualiseerd op 25 oktober 2023
Afgelopen augustus heeft Google Search weer een impactvolle update in haar zoekrichtlijnen en -algoritmes ingevoerd. Het doel van deze ‘Core Update’ is het Google-standpunt over AI (‘artificial intelligence’ ofwel kunstmatige intelligentie) bij websitecreatie om te zetten in beleid. Op de achtergrond is het hoofddoel: Google een zinvolle en betrouwbare zoekmachine te laten blijven.
Update-geschiedenis
Bekende Google Search updates uit het verleden waren bijvoorbeeld:
Panda (februari 2011), waarbij websites met ‘dunne’ content (overgenomen of heimelijk puur op verkoop gericht) lager werden gerangschikt in de zoekresultaten;
Penguin (april 2012), waarbij websites met teveel ‘keywords’ (steekwoorden waar mensen in de zoekmachines naar zoeken) of links in teksten niet meer automatisch voordeel in de ranking kregen;
MobileGeddon (april 2015), waarbij mobielvriendelijke pagina’s hoger gingen scoren;
BERT (oktober 2019) waarbij Google de context van woorden en teksten beter ging oppikken om zo eerder te begrijpen waar de sites om draaien; en
Core Web Vitals (juni 2021), waarbij gebruikerservaring (‘user experience’ of UX) belangrijker en pagina-ervaring een ‘rank-factor’ werd.
Junkwebsites en ‘E-E-A-T’
Nu hebben we dan de ‘August 2023 Core Update’. Deze update is een eerste antwoord van Google op AI websitecreatie en bouwt voort op de eerdere updates. Om goede kwaliteit en bruikbaarheid van de zoekresultaten te waarborgen, heeft Google een aantal handvaten geformuleerd waaraan de inhoud van websites moet voldoen om hoog te scoren in Google: ‘E-E-A-T’, oftewel Ervaring, Expertise, Autoriteit en Trustworthiness, lees betrouwbaarheid. De E van Ervaring (Experience) is vrij recent toegevoegd, mogelijk om de wildgroei aan junkwebsites gevuld met AI-inhoud te helpen terugdringen. Websites die hoger scoren op E-E-A-T komen in principe hoger te staan in de zoekresultaten en websites met lage kwaliteit inhoud en AI gegenereerde content (als dat waarneembaar is en als kunstmatig wordt gezien en ervaren) worden eerder gedevalueerd in de zoekresultaten.
‘People-first’
Google tekent er in haar documentatie bij aan dat het sites die nu, na deze recente update, lager ranken dan daarvoor, niet zomaar afschrijft. Je hoeft ook niet zomaar iets te verbeteren aan je site. Het gaat erom waar de in Google zoekende medemens waarschijnlijk het meest aan gaat hebben. Met deze geruststellende opmerking probeert Google een schokgolf in de internetwereld te voorkomen, zoals die eerder optrad bij bijvoorbeeld de Panda-update van 2011. Bovenal probeert Google behulpzame, betrouwbare ‘people-first’ content te stimuleren.
Winnaars en verliezers
Van de Core Update van augustus 2023 profiteerden vooral sites waar niet de makers, maar de gebruikers de content creëren (USG, user generated content), met Reddit als grote winnaar. Reddit had na de update 65% meer zichtbaarheid in de Google zoekresultaten. Reviewsites waar echte ervaring met de beoordeelde producten uit bleek, gingen er ook op vooruit. Het helpt dus volop te laten zien dat de schrijvers de producten echt hebben gebruikt, de reis zelf hebben gemaakt, et cetera. Ook medische, educatie- en overheidssites, met hun nut voor gezondheid en welzijn, gingen in zichtbaarheid omhoog.
Grote verliezers waren ‘Parasite SEO blogs’: high autority websites die kleine publicaties met veel affiliate en andere links op hun site toelaten. Zo zag ‘Outlook India’ een teruggang in zichtbaarheid in Google van 38% en Newsdirect ging er maar liefst 70% op achteruit. Reviewsites zonder ervaring met de aangeprezen waar gingen er op achteruit. Passieve muzieksites ook, waaronder soundcloud, rolling stone en lonely planet. Bijzonder is ook, dat grote nieuwssites, zoals New York Times, Guardian, Atlantic en CBS er in vindbaarheid op achteruit zijn gegaan. Dit laatste kan ook met een andere shift (in spreiding van vindbaarheid van diverse berichten) te maken hebben.
In het algemeen zullen sites van content farms, die met AI grote hoeveelheden inhoud produceren, er minder gunstig qua vindbaarheid voorstaan na de update.
Controleer wat je schrijft
Je kunt zelf controleren of de inhoud op jouw website als behulpzaam, betrouwbaar en ‘people-first’ geclassificeerd kan worden. Samenvattend gaat het onder andere hier om:
Algemeen:
- probeer in je webteksten een onderwerp af te ronden en niet de clou pas in een verkoopproduct te geven, wat niet op de pagina verwoord en uitgeschreven staat;
probeer zelf te schrijven en niet over te schrijven en maak er een orginele en gedenkwaardige pagina van;
blijf kijken of titels en subtitels inderdaad aangeven waar de tekst over gaat;
geef de pagina een verzorgd uiterlijk en let op spelling en stijl.
Expertise en Autoriteit:
geef aan waar je de autoriteit vandaan haalt om hierover te schrijven: zit dat in je CV of referenties of heb je goede bronnen, die je in links weergeeft?
kunnen feiten nagecheckt worden, heb je genoeg bronmateriaal weergegeven dat betrouwbaar is?
Ervaring (Experience):
Betrouwbaarheid (Trustworthiness):
zitten er fouten of omissies in de tekst? Een fout of omissie is tegenwoordig niet meer alleen menselijk, maar ook AI-gegenereerd;
is de informatie algemeen geaccepteerd?
People first:
passen deze teksten bij je publiek, zijn degenen die naar je toe komen voor hulp hierin geïnteresseerd?
Is je tekst zo behulpzaam dat de lezer hiermee verder kan?
Schrijf niet naar de zoekmachines toe (Google ziet dit als spam), focus op het doel van je website. Oude blogs verwijderen en er veel bijplaatsen om je site er fris te laten uitzien, helpt volgens Google niet.
‘Your Money or Your Life’ (Y-M-Y-L)
Hoewel ‘E-E-A-T’ belangrijk is, en dan vooral de Trust-factor, is het niet doorslaggevend. Het is ook niet altijd allemaal tegelijk aanwezig in een tekst en die tekst kan dan toch goede content zijn in de ogen van Google. Het gaat bij Google vooral om E-E-A-T in combinatie met onderwerpen die belangrijk zijn voor de gezondheid en het welzijn van mensen, waaronder financiële stabiliteit en veiligheid van burgers. Dit zijn de zogenaamde ‘Your Money or Your Life’ (Y-M-Y-L) onderwerpen. Ondersteunt je site deze doelen waarneembaar, dan maak je meer kans hoger in de zoekresultaten te eindigen.
‘Who How Why’ (W-H-W)
Tenslotte is het aan te bevelen het volgende duidelijk te laten zijn:
- wie heeft de tekst heeft geschreven? (‘Who’),
- hoe is de schrijver tot deze tekst gekomen? Blijkt er bijvoorbeeld AI-gebruik of geeft de schrijver zelf aan AI te hebben gebruikt en hoe? (‘How’) en
- waarom heeft de schrijver deze tekst geschreven, waarom denkt deze dat de gegeven informatie behulpzaam is voor het publiek dat de website bezoekt? (‘Why’).
Google Search AI-standpunt
In februari 2023, al voor deze Core Update, heeft Google Search een standpunt over AI-tekstgeneratie op websites in relatie tot ‘ranking’ (hoe hoog komt je site in de zoekresultaten?) geformuleerd. De focus ligt hierbij op kwaliteit.
Google erkent dat automatisering van inhoud heel behulpzaam kan zijn. In feite behoorde het altijd al tot normale content-generatie, zoals bij sportresultaten, weerbericht en het transcriberen van media. AI kan creativiteit stimuleren, wat heel handig is bij tekstcreatie. In principe is nieuwe technologie iets goeds.
Dat gezegd hebbend, blijft Google teksten langs de bekende meetlatten van Y-M-Y-L, E-E-A-T en W-H-W leggen, of ze nu door AI tot stand zijn gekomen of niet. Content die primair gericht is op het hoog scoren in de zoekmachines valt bij Google onder spam, ongeacht of dit AI-gegenereerde content is of niet.
US Copyright Office AI-standpunt
Kort daarop, op 15 maart 2023, kwam het Copyright Office in de Verenigde Staten (zeg het Auteursrechtbureau aldaar) met een standpunt dat vermoedelijk in de Amerikaanse regelgeving wordt opgenomen en nu al leidend is: op werken die met AI gegenereerd zijn is alleen auteursrecht (copyright) mogelijk, als het werk vooral door menselijk denken en doen tot stand is gekomen en bovendien vermeld wordt dat AI heeft geholpen bij de totstandkoming en hoe en dit niet de boventoon voert in het uiteindelijke stuk, webtekst, boek, etc.
Zonder auteursrecht/copyright op je stuk, webtekst, boek of wat dan ook mag ieder jouw werk vrijelijk gebruiken om er zelf iets van te maken.
Conclusie
Het advies van Google is dan ook: als je AI wilt gebruiken bij het creëren van webteksten, houd je teksten dan origineel en behulpzaam voor je publiek en van hoge kwaliteit (met Y-M-Y-L, E-E-A-T en W-H-W in gedachten). Als je tenminste wilt dat Google Search je pagina’s gaat waarderen en vervolgens hoger rangschikken in de zoekresultaten van de argeloze zoeker.
Vertrouw je op andere zoekmachines? Deze zijn ook kapitalistische ondernemingen die goede resultaten aan hun gebruikers willen laten zien en geen spammy links. Daarbij draait het om goede naam en faam.
Het advies van het Amerikaanse Copyright Office luidt, je werk niet overwegend mechanische reproductie door AI te laten zijn, maar het vooral jouw denken en bewoordingen te laten reflecteren.
Er zijn natuurlijk andere methoden die ook bijdragen aan de vindbaarheid van je website: publiceren op sociale media, consistentie in publiceren, uithoudingsvermogen en een lange termijn SEO-visie (hoe blijft mijn site vindbaar?) horen daarbij. Dat is beter dan steeds je analytics te checken (komen er wel bezoekers en klikken ze op mijn links?) en je uitsluitend op AI (snelle, geautomatiseerde tekstcreatie) te verlaten.
Tenslotte is een tip de pagina’s en blogs op je site die echt van slechte kwaliteit zijn (dunne inhoud, salesy, gekopieerd, slordig of fout, vol spelfouten, slechte stijl, onaantrekkelijk, et cetera) van je website af te halen.
Bronnen:
Afbeeldingen van Wikimedia Commons: