Ontdek alle mogelijkheden met ApplePY. Bekijk alle features

Prioriteer online marketing met slimme oplossingen

De nummer #1 voor slimmer online marketing

Zien is geloven! Test de kracht van ApplePY in jouw gratis proefperiode.

Generative AI en SEO

Generative AI en SEO

Google, ChatGPT en andere LLM’s gebruiken nieuwe generatieve AI-technologie om de content van een website te exploiteren voor hun eigen winst zonder enig voordeel voor jou te bieden. Ze doen dit zonder jouw medeweten of toestemming, en halen antwoorden uit de content om aan hun gebruikers te geven zonder dat ze jouw website hoeven te bezoeken en zonder je zelfs maar te vermelden (ze vermelden hun bronnen niet).

Laten we ze allemaal eens doornemen.

Wat zijn Large Language Models (LLM's) precies?


Elke tekst die Google (of iemand anders) bestempeld als 'Generative AI', wordt meestal gegenereerd door een
Large Language Model (LLM), een nieuwe vorm van kunstmatige intelligentie.

LLM's kwamen voor het eerst op in 2018, maar werden pas het laatste jaar populair vanwege de opkomst van de eerste LLM die mainstream werd: OpenAI's ChatGPT. Een chatbot.

Maar, Chatbots zijn niet nieuw. Maar ze waren nooit echt zo goed. Tenminste, niet tot november 2022. Dat was toen ChatGPT (Model 3.5) werd uitgebracht. Hoewel eerdere versies van GPT veelbelovend waren, was het pas bij deze specifieke release dat het potentieel van deze nieuwe technologie de hele wereld opviel: ChatGPT, en Generative AI-tools in het algemeen, zijn een absolute game changer.

Hoe werken LLM's (zoals ChatGPT)?


Om te beginnen begint een LLM met het krijgen van data, de informatie die het gebruikt om van te leren. Denk aan: pagina's van boeken, historische financiële databases, kopieën van elke Wikipedia-pagina, etc.

Het gebruikt dit allemaal aan informatie om de wetten van de menselijke taal en de relaties tussen woorden te 'leren'. We kunnen dit zien als een opsplitsing in twee hoofdonderdelen (hoewel het model ze zelf beschouwt als één gecombineerd ding, niet afzonderlijk):

  1. Hoe mensen praten/schrijven – vooral om te begrijpen wat we vragen en hoe we die moeten beantwoorden.
  2. Verschillende feiten, ideeën, concepten, enz. - de ruwe input om daaruit te putten vormt de collectieve "kennis".


De reden voor #2 ligt voor de hand: als jij een antwoord op een vraag wilt, moet de LLM bepaalde feiten en achtergrondinformatie kennen om deze te kunnen beantwoorden.

Zodra het klaar is met analyseren waar je om vraagt, 'denkt' het, en genereert vervolgens een reactie in natuurlijke menselijke taal die je (hopelijk) geeft wat je zoekt.

Maar hier is het belangrijkste dat je moet begrijpen: LLM-antwoorden/antwoorden zijn meestal unieke tekstreeksen. Als in: als je het volledige bit, tussen aanhalingstekens, zou Googlen, zou je die paragraaf of lijst met opsommingstekens of wat dan ook, woord voor woord niet ergens op internet vinden. Het gebruikt meestal niet één enkele bron en herhaalt een antwoord precies vanaf een bepaalde plaats. Elke reactie is het hoogtepunt van al zijn gecombineerde data (wat belangrijk is om te onthouden wanneer we de auteursrechtwetgeving bespreken).

Vandaar de naam “Generatieve AI”. Het genereert on-the-fly een reactie.

Waarom geeft Google om LLM's?


Google verdient geld omdat het internet naar zoekmachines gaat om antwoorden te krijgen (of dat antwoord nu een andere website, een product, een feit, een idee, enz. is) en omdat ze de populairste zoekmachine zijn (92% marktaandeel).

Ze halen 56% van hun omzet (vanaf Q4 2022) uit zoekadvertenties. Dus als mensen niet meer naar zoekmachines gaan voor antwoorden, en/of vooral niet langer Google gebruiken, dan zal dit direct effect hebben op hun marktkapitalisatie van miljarden dollars. Ze hebben meer te verliezen dan wie dan ook als het gaat om gedragsveranderingen over hoe en waar gebruikers op internet antwoorden zoeken.

Voor het eerst sinds het de populairste zoekmachine ter wereld is geworden, lijkt Google dus  echte concurrentie te hebben. En ironisch genoeg, toen wij googelden om erachter te komen wanneer ze voor het eerst de populairste zoekmachine werden, zeiden ze ten onrechte 2000. Ik vroeg toen aan ChatGPT, die ons correct vertelde 2004.

Dat voorbeeld, samen met zoveel andere, leidt ons naar de volgende reden waarom Google moet opletten.


Wat heeft Google precies aangekondigd op 10 mei?

10 mei 2023 is de dag waarop Google hun I/O-conferentie hield. Nu investeerders nerveus zijn over ChatGPT, is het begrijpelijk dat de conferentie sterk gericht was op AI.

Er werden die dag veel dingen aangekondigd, maar de aankondiging die ik eerder belichte was naar mijn mening de grootste.

 


Deze getoonde functies zijn alleen in bèta. Ze worden momenteel niet getoond aan gebruikers die zich niet
specifiek hebben aangemeld om ze te zien (door hierheen te gaan). Maar als en wanneer dat verandert, zullen er enorme negatieve gevolgen zijn voor het wereldwijde SEO-verkeer.

Dit komt doordat, als je goed kijkt naar de getoonde voorbeeldschermafbeeldingen, je zult zien dat informatie en antwoorden worden gegeven zonder enige bronvermelding. En, in tegenstelling tot de huidige Featured Snippets, tonen ze veel grotere hoeveelheden content, veel rijkere informatie en zelfs aanklikbare links voor aanvullende vervolgzoekopdrachten (dwz voor vermelde items), zodat jij Google nooit hoeft te verlaten (tenzij jij bent klikken op een advertentie).

Vermelden LLM's de bronnen?

Nee. ChatGPT, Google Bard en de meeste andere LLM's vermelden hun bronnen niet. Alleen Google Bard levert bronnen voor een antwoord, maar alleen na direct om bronnen te hebben gevraagd. Specifiek voor ChatGPT is slimme, snelle engineering nodig om ervoor te zorgen dat het alle bronnen in elke situatie levert, en zelfs dan hallucineert het blijkbaar en geeft het vaak verzonnen bronnen op.

Dit zijn niet per se zoveel kwade bedoelingen als je zou denken. Een kernprobleem met LLM's is dat ze niet eens precies weten hoe ze aan hun antwoord kwamen en dus waar dat antwoord vandaan kwam. Vanaf vandaag hebben alleen Google en Bing moeite gedaan om dit kenmerk in te perken (door er soms voor te kiezen om te antwoorden op basis van de informatie van een specifieke bron in plaats van een normaal, "puur" LLM-antwoord).

Hier is de eigen uitleg van ChatGPT waarom het geen bronnen levert:

“ChatGPT van OpenAI is een machine learning-model dat is getraind op een enorme hoeveelheid tekstgegevens van internet. De specifieke bronnen van deze tekstgegevens worden niet in het model bewaard, omdat de primaire focus tijdens het trainingsproces was om een ​​model te maken dat coherente en informatieve tekst kan genereren, in plaats van de bronnen van de gegevens bij te houden die werden gebruikt om het te trainen. Bovendien zou het bijhouden van de bronnen voor alle gegevens die in het trainingsproces worden gebruikt, een aanzienlijke hoeveelheid reken- en opslagbronnen vereisen.
Nieuwste adviezen

Gerelateerde artikelen