Hur man får Google att indexera din webbplats med täckningsrapporten - Semalt vet svaret



Det är dags att ta en djupdykning i din Search Console Index Coverage-rapport för att förstå hur vi kan få Google att genomsöka och indexera din webbplats snabbare. På Semalt har vi flera professionella tekniska SEO-medarbetare, och de är alla bekanta med att använda Google Search Console Index-täckningsrapporten.

Om du har en teknisk SEO-expert som inte använder eller förstår det här verktyget, skaffa en ny. GSCIC-rapporten gav en djupgående förståelse av:
  • Vilka webbadresser på din webbplats har genomsökts och indexerats av Google och vilka webbadresser som ännu inte ska genomsökas.
  • Det förklarar också varför sökmotorn har valt vilken URL den genomsöker eller inte.
Rapporten verkar vara relativt enkel eftersom den använder färgscheman för trafiksignaler för att representera dess resultat.
  • Rött ljus (fel): Detta visar att sidan inte har indexerats.
  • Gul (giltig med en varning): detta indikerar att det kan finnas några problem som behöver åtgärdas. Om du har tid kan du fixa dem. De är dock inte kritiska och sidan kan vara indexerad.
  • Grön (giltig): detta säger att allt är bra, och din sida har indexerats.
Ett annat resultat är den stora grå zonen, som har uteslutits.

När vi läser vidare inser vi att vägregeln verkar vara skriven på ett Googlish-språk. Vi kan dock översätta statustyperna i indexeringen och öka vår organiska prestanda.

SEO som påverkar frågor i indextäckningsrapporten

Nyckeln här är att se till att du inte bara fokuserar på felen. Oftare kommer inte de betydande SEO-vinsterna att begravas i det grå området som nämns ovan. Här är några indextäckningsrapporter som verkligen betyder något för SEO. Dessa artiklar har listats i prioriterad ordning så att du vet vad och var behöver din uppmärksamhet mest.

Upptäckt innehåll är för närvarande inte indexerat

Detta händer eftersom Google känner till webbadressen av länkar eller en XML-webbplatskarta, och den finns i genomsökningskön. Problemet här är att Googlebot ännu inte ska genomsöka webbadressen. Detta indikerar att det finns ett genomsökningsbudgetproblem.

Hur kan vi åtgärda detta? Om det bara finns några få sidor som faller inom denna kategori kan vi utlösa en genomsökning manuellt genom att skicka webbadresserna till Google Search Console. Om det finns ett stort antal webbadresser investerar vi mer tid i en långsiktig fix av din webbplats arkitektur. Detta inkluderar webbplatsens taxonomi, URL-struktur och intern länkstruktur. Om du gör detta löser du dina genomsökningsbudgetproblem från deras källor.

Genomsökt - för närvarande inte indexerat

Ibland kommer Googlebot att genomsöka en webbadress och upptäcka att dess innehåll inte är värd att inkluderas i indexet. Detta är vanligt på grund av kvalitetsrelaterade problem som att ha föråldrat innehåll, tunt eller irrelevant innehåll, dörröppningssidor eller användargenererad skräppost. Om ditt innehåll anses värdig, men det inte är indexerat, är chansen att problemet är ett resultat av rendering.

Hur kan vi åtgärda detta? En snabb lösning blir att granska innehållet på dina sidor. När du förstår vad Googlebot tycker är innehållet på din sida nu tillräckligt värdefullt för att indexeras. Då räknar du ut om sidan måste finnas på din webbplats.

Antag att webbsidan inte är användbar för din webbplats, 301 0r 410, URL: en. Om det är viktigt kan du ändra innehållet på sidan och lägga till en tagg som inte är index tills du kan lösa problemet. Om du har en webbadress baserad på en parametermodell kan du förhindra att sidan genomsöks genom att använda vissa metoder för hantering av parametrar.
När innehållet verkar vara av acceptabel kvalitet, kontrollera hur det återges utan JavaScript. Google kan indexera JavaScript-genererat innehåll, men det är mer komplicerat än att indexera HTML. Det beror på att JavaScript har två vågor av indexering. Den första vågen indexerar den sidan baserat på den ursprungliga HTML-koden från servern, och du kan se detta genom att högerklicka för att se sidkällan.

Det andra indexet är baserat på DOM. Detta inkluderar både HTML och renderat JavaScript från klientsidan. Du kommer att se detta när du högerklickar och inspekterar.

Den stora utmaningen med JavaScript-indexering inträffar i den andra vågen av indexering, som är begränsad tills Google har tillgängliga resursresurser. Det är därför som indexering av JavaScript-beroende innehåll tar längre tid än bara HTML-innehåll. Det kan ta allt från dagar upp till några veckor från det att det genomsöktes för JavaScript att indexeras.

För att undvika sådana förseningar kan du använda rendering på serversidan. Detta gör att alla viktiga komponenter i innehållet kan presenteras i den ursprungliga HTML-koden. Detta bör inkludera kritiska delar av din SEO, såsom sidrubriker, strukturerad data, ditt huvudinnehåll och länkar, rubriker och kanoniska.

Duplicera innehåll utan användarvalt kanoniskt

Detta händer när Google anser att sidan är duplicerat innehåll, men den är inte markerad med en klar kanonisk. Här har Google beslutat att den här sidan inte ska vara kanonisk, och därför har den uteslutits från indexet.

För att åtgärda detta måste du markera rätt kanonikaler. Se till att du använder rätt rel=kanoniska taggar för varje genomsökbar URL på din webbplats. Detta gör att du kan förstå vilka sidor som är valda som kanoniska av Google, vi måste granska webbadressen i Googles sökkonsol.

Duplicerad, skickad URL, som inte är vald som kanonisk

Detta orsakas av en liknande situation som anges ovan. Den enda skillnaden här är att du specifikt bad om att webbadressen skulle indexeras.

För att åtgärda detta måste du markera rätt kanonisk med en rel=kanonisk länk. Detta bör användas på varje genomsökbar URL på din webbplats. Du bör också se till att du bara inkluderar kanoniska sidor i din XML-webbplatskarta.

Google väljer en annan kanonisk

I det här fallet har du placerat dina rel=kanoniska länkar, men Google tycker inte att detta förslag är lämpligt, så det väljer att indexera en annan webbadress som den kanoniska.

För att åtgärda detta måste du inspektera webbadressen för att se den kanoniska URL som Google har valt. Om du tycker att Google har gjort rätt val, ändra rel=kanonisk länk. Om inte, skulle du behöva arbeta på webbplatsens arkitektur och minska mängden duplicerat innehåll. Du bör också skicka starkare rankningssignaler till den sida du vill vara kanonisk.

Inlämnad URL hittades inte (404)

Begäran om en sida finns inte. För att åtgärda detta måste du skapa webbadressen eller ta bort den helt från din XML-webbplatskarta. Detta problem kan lätt undvikas genom att följa vår guide på XML-webbplatskartan.

Omdirigeringsfel

Här har Google-robotar tagit problem med omdirigeringen. Detta beror främst på att ha en omdirigeringskedja på fem eller fler URL: er, omdirigera loopar för lång URL eller en tom URL.

Vi kan åtgärda detta genom att använda felsökningsverktyg som fyren. Ett statuskodverktyg som httpstatus.io kan också användas för att förstå vad som hindrar omdirigeringen från att fungera som förväntat och visar hur de identifierade problemen kan lösas.

Det är viktigt att du ser till att dina 301-omdirigeringar alltid pekar direkt mot den slutliga destinationen. Om du behöver redigera de gamla omdirigeringarna är det bättre att redigera dem.

Serverfel (5xx)

Detta inträffar när servern returnerar en 500 HTTP-svarskod eller en intern serverfelkod när de inte kan ladda enskilda sidor. Detta kan orsakas av ett stort antal serverproblem, men oftare orsakas det av en kort koppling från servern som hindrar Google-bots från att genomsöka webbadressen.

Hur du närmar dig, detta beror delvis på hur ofta det inträffar. Om detta händer en gång på mycket länge finns det inget att oroa sig för. Efter en tid försvinner felet. Om sidan är viktig för dig kan du återkalla Googlebot till sidan efter felet genom att begära ett index på webbadressen.

Om felet återkommer bör du prata med din ingenjör, lära teamet och värdföretaget att förbättra sina tjänster. Om problemet kvarstår, överväga att ändra ditt webbhotell.

Slutsats

Sammantaget tror vi på att förhindra ett problem snarare än att hitta lösningar på det. Med vår väl genomtänkta webbplatsarkitektur och robothantering producerar vi ofta helt rena och tydliga Google Search Console-indexrapporter. Ibland tar vi dock emot klienter som har byggt sin webbplats av andra, så vi kan inte utveckla webbplatsen från grunden. Av den anledningen kontrollerar vi regelbundet denna rapport och ser i vilken utsträckning Google har genomsökt och indexerat webbplatsen, varefter vi antecknar utvecklingen.

Semalt, vi har ett team av experter som är här för att hjälpa dig. Har du några problem relaterade till något av ovanstående? Eller har du några frågor som rör SEO och webbplatsindexering? Vi hjälper dig gärna att stryka ut detaljerna. Våra tjänster sträcker sig också till att underhålla din webbplats, vilket innebär att dessa problem åtgärdas.