SEO is altijd een lastige zaak geweest, niet alleen moeten experts tijd besteden aan het onderzoeken van zoekwoorden en het volgen van de best practices, ze moeten voorbereid zijn op de veranderingen die zoekmachines onvermijdelijk doorvoeren.

Vorig jaar zag zoekgigant Google twee belangrijke algoritme-updates - Panda en Penguin - die veel sites in de ranglijst zagen dalen, omdat ze werden gestraft door de nieuwe regels.

Dit kwam doordat de wijzigingen werden doorgevoerd om sites van slechte kwaliteit, zoals contentfills en link farms, te classificeren en meer gewicht te geven aan sites die kwaliteitsinhoud produceren.

Dit wordt gedaan door wijzigingen aan te brengen in hoe Google-spiders een site herkennen en betere rankings geven aan sites met kwaliteit, goed geschreven inhoud en betrokkenheid van sociale media. Voor webprofessionals zorgde dit voor paniek, omdat statische sites die niet bijzonder goed waren geschreven en volgepropt met zoekwoorden begonnen te falen.

Updates van Penguin en Panda waren afhankelijk van een nieuwe set regels en complexere algoritmen die zijn ontworpen om een ​​site te rangschikken op een aantal verschillende factoren.

Deze omvatten:

  • Inhoud: Google-spiders kunnen nu zien of een site slecht is geschreven, met spelling- en grammaticale fouten, veel advertenties en links van slechte kwaliteit. Deze verandering wordt door veel SEO- en digitale professionals als een welkome verwelkoming gezien, omdat het artikelsyndicaten en inhoudsmolens van slechte kwaliteit meteen in de minderheid gooide, zodat een hoge kwaliteit hun plaats kon innemen en nuttiger kon zijn voor zoekers.
  • Versheid: de "versheid" van kopie is belangrijker geworden voor Google dan inkomende links. Dit betekent dat het voor het concurreren op Google noodzakelijk is vaak nieuwe inhoud toe te voegen. De versheidsclassificatie kijkt naar 3 sleutelgebieden: # 1: Trending-onderwerpen zoals de Olympische Spelen of de Amerikaanse verkiezing # 2: terugkerende beroemde evenementen zoals de Superbowl # 3: hoe recent de inhoud is toegevoegd.
  • Unieke inhoud: ooit gekopieerd en geplakt wat inhoud in een website om hoeken te knippen? Nu zal het ook de rangschikking van de site verminderen. Originele inhoud is een van de belangrijkste aspecten bij het bepalen van de positie. Content met onnatuurlijke links wordt ook bestraft, dus het is belangrijk ervoor te zorgen dat links organisch worden weergegeven en zeer relevant zijn voor de inhoud. Dit wordt alleen maar nog belangrijker als Google's auteursrang opstijgt.
  • Sociaal: zoals velen van jullie zullen weten, is sociale de nieuwe marketing en een zeer krachtige tool voor SEO. Google gebruikt nu sociaal in zoekresultaten om te bepalen hoe nuttig een site is over de hele linie. Het is nu belangrijk voor online marketeers en SEO-experts om sociaal te integreren, waarbij ervoor wordt gezorgd dat alle merkkleuren en -logo's uniform zijn op sociale kanalen en websites. Daarnaast is het belangrijk dat de sociale aanwezigheid goed wordt beheerd; slecht, bot-beheerd sociaal zal de ranglijst van een site schaden.
  • Vrij van technische fouten: dit is in het bijzonder belangrijk voor webprofessionals en zal ongetwijfeld veel blogsites van de bovenste plank stoten. Een site met een degelijke architectuur presteert beter dan een site die is opgebouwd uit sjablonen, Flash of meer dan twee jaar oud is. Dit betekent dat de code op standaarden moet zijn gebaseerd met geldige CSS-tags en opgeruimde metagegevens.

Hoe problemen met de ranking van een site aan te pakken

Zelfs enkele van de grootste sites werden beïnvloed door de wijzigingen in Google-algoritmen, ik las er een die meteen moest worden verwijderd om alle zoekwoorden en dubbele pagina's te wijzigen.

Een site die slecht is geschreven, moet al zijn inhoud vernieuwd hebben, bij voorkeur door iemand die kan schrijven. Dit omvat blogposts en artikelen, dus als een site veel inhoud zoals deze heeft, dan is het misschien een beter idee om het allemaal van de site te verwijderen en toe te voegen zoals je het krijgt, of andere inhoud.

Meta-gegevens moeten ook schoon en netjes zijn en Google heeft de neiging om zoekwoorden te negeren en zich te concentreren op beschrijvingen hier. Sleutelwoorden hebben natuurlijk nog steeds hun plaats en het is belangrijk om ervoor te zorgen dat deze nog steeds goed worden onderzocht en geanalyseerd, maar artikelen en blogs met een hoge keyworddichtheid worden waarschijnlijk bestraft. Dit komt omdat trefwoorden, wanneer ze te veel worden gebruikt, de kwaliteit van het schrijven in gevaar brengen.

Panda concentreerde zich op het wegwerken van die sites die probeerden zijn algoritmes te 'misleiden' door overmatig gebruik van trefwoorden en spammen te linken. Als u hebt vastgesteld dat een site spamlinks bevat die ernaar verwijzen, gebruikt u Google's Disavow Tool , die ze voor u zal verwijderen. Het is echter belangrijk om op dit punt op te merken dat een zorgvuldige site-audit moet worden uitgevoerd om slechte links te identificeren en het moet voorzichtig zijn dat de tool wordt gebruikt.

Voor Panda is het ook de moeite waard om te controleren of de inhoud van een site uniek is; het moet 60% uniek zijn voor de hele site, evenals toegankelijk, om Panda's regels te kunnen doorstaan.

Penguin concentreerde zich meer op de daadwerkelijke inhoud en beide algoritmen worden nog steeds regelmatig bijgewerkt om ze te verfijnen. Voor het grootste deel concentreert Penguin zich vooral op het vullen van zoekwoorden in artikelen en spamlinks.

In wezen houden beide zich bezig met toegankelijkheid, inhoud, spammingstechnieken en nieuwe regels die zijn ontworpen om Black Hat SEO te voorkomen.

Wat is Black Hat SEO?

Kortom, dit is een manier om te proberen de zoekmachines te manipuleren, zodat het hen in essentie 'doet' denken dat een site waardevol is. Black Hat gebruikt agressieve tactieken en is gericht op de zoekmachine in plaats van een menselijk publiek.

In de komende artikelen zal ik kijken naar de technieken van de zwarte, witte en grijze hoeden om een ​​duidelijk overzicht te geven van wat veilig kan worden gebruikt en die een no-no zijn. Het probleem dat velen hebben ondervonden, is dat sommige, minder dan gerenommeerde, 'SEO-experts' black hat-technieken hebben gebruikt om meer klanten te winnen en snel geld te verdienen. Dit is de reden waarom sommige bedrijfssites als een steen in de ranglijst zijn gevallen, vaak niet wetend dat ze iets verkeerd hebben gedaan.

Black hat-technieken omvatten:

  • pakcode met 'verborgen' tekst ;
  • koppel boerderijen waar een groep sites allemaal naar elkaar linken om de index van een zoekmachine te spammen;
  • blogspam, gebruik het opmerkingenveld op blogs en forums om links naar andere sites te plaatsen;
  • schrapen, een praktijk waarbij de ene site content van een andere haalt om er waardevoller voor zoekmachines uit te zien;
  • doorway-pagina's die worden gebruikt met de bedoeling om zoekers te verleiden met zinnen die geen verband houden met de inhoud van de site;
  • parasitaire hosting , waarbij een site zonder toestemming wordt gehost op de server van iemand anders;
  • cloaking, een techniek waarbij de spider van de zoekmachine verschillende inhoud ziet voor de eindgebruiker die via een browser kijkt.

Black hat-methoden worden door veel webprofessionals gezien als onethisch, omdat ze tactieken gebruiken die snelle returns beloven, maar de kans lopen de reputatie van een bedrijf, website en op zijn beurt, winst te schaden.

Het gebruik van black hat-methoden betekent vaak dat een site geen maanden hoeft te wachten op link-backs, net als bij traditionele white hat-methoden. Het vult echter ook het internet met nutteloze informatie en spam en heeft in de loop van de jaren het zoeken ernstig beïnvloed.

Het is ook goedkoper voor de SEO-strateeg om zo vaak te doen, een blognetwerk zal al worden opgezet om naar te linken en het is niet sterk afhankelijk van analyses en inhoud, zoals bij de praktijk met witte hoeden.

Niet alleen leidt het gebruik van black hat-methoden vaak tot het dreigen met juridische actie, als ze naast een PPC-campagne worden gebruikt, kunnen er zware straffen worden opgelegd door de adverterende host.

Het wordt niet aanbevolen dat een site black hat-technieken gebruikt vanwege de boetes, in termen van juridische actie, reputatie en de dreiging van niet-classificatie. Dat zal echter niet iedereen stoppen, ondanks de updates van Google.

Als we dat zeggen, zien we al dat inhoudsmolens snel in de ranglijst verdwijnen, dus de updates werken duidelijk omdat dit een van de belangrijkste gebieden is die Google wilde aanpakken.

Google en alle grote zoekmachines hebben een visie, een die van plan is om het web op te ruimen en slechte praktijken afschaft, wat leidt tot nuttiger inhoud die bovenaan ons onderzoek verschijnt. Of je nu zwarte-hoedtechnieken gebruikt of niet, is tussen jou en je geweten, maar ik ben zeker blij dat ik kan zoeken en geen pagina vol rommel kan verzinnen voordat ik krijg wat ik wil.

Welke problemen heb je tegengekomen als gevolg van Panda en Penguin? Hoe heb je de black-hat-technieken opgelost die werden gebruikt door voorgangers? Laat het ons weten in de comments.

Uitgelichte afbeelding / thumbnail, zoek afbeelding via Shutterstock.