4 nyttige værktøjer, du kan bruge til at lave en jQuery Website SEO-Friendly

For det meste af tiden internettet har eksisteret, har SEO praksis i vid udstrækning drejet sig om søgemaskiner indeksering almindelig tekst version af hjemmesiden indhold og ikke indhold, der er blevet dynamisk genereret ved hjælp af programmering platforme som JavaScript eller dens enormt populære bibliotek, jQuery. Ifølge Forbes.com, søgemaskine crawler bots er ikke op til mærket, når det kommer til at forstå JavaScript, og dermed, hjemmeside indhold indeksering kan ikke udføres helt, og placeringerne trukket ned.

Selvom Google hævder at have forbedret kapaciteter, der gør det muligt at gennemgå og indeksere indholdet gengivet via JavaScript og jQuery biblioteket, er der stadig en mangel på tillid blandt web-udviklere med hensyn til indeksering af dynamisk genereret indhold, som måske stadig ikke er dækket. For at løse dette problem, kan web-udviklere udnytte en af disse meget handy programmer, der gør sikker på, at hjemmesiden jQuery indhold er korrekt indekseret af søgemaskinerne og gjort SEO-venlige. Et kig på nogle af de bedste programmer:

Prerender er open source-software, hvilket betyder, at der ikke er nogen begrænsning på brugen af dens kode. Programmet arbejder sammen med Google crawlere på en sådan måde, at når en side er forsøgt at blive tilgået, men ingen cache er tilgængelig, programmet gør siden straks på anmodningen, der gøres, og caches det derefter. På grund af denne proces, cachen er altid komplet gør det muligt for siderne, der skal returneres meget hurtigt; Responstiderne for Prerender-værktøjet er typisk omkring 5 ms.

Den metode, der anvendes af Google og andre søgemaskiner er certificeret til at være korrekt, da værktøjet følger Google specifikationer, der blev skrevet til AJAX. For at sikre korrekt caching af websiden, når det bliver tilgået af en søgemaskine crawler, er det nødvendigt at bruge Prerender API. Websiderne kan tilgås af API af programmet, når nogen ændring har fundet sted, at sikre, at siden cache er altid aktuelle og ventetiden for siden tilbagekaldelse er minimal.

Programmet er designet til automatisk at downloade alle websider og gøre dem i en egentlig browser. Dette sikrer, at JavaScript kører korrekt, de relevante AJAX-kald foretages, og DOM udføres. Når alle disse er gjort med succes, programmet gemmer den tilsvarende HTML. Når en søgemaskine bot forsøger at scanne en hjemmeside, den omsidede side skal kun være proxied ved hjælp af værktøjet. Dette er det eneste trin, hvor koden skal ændres. Typisk vil ændringen være meget lille, og brugeren vil blive instrueret af BromBone, hvad de skal gøre præcist.

Enhver, der føler sig intimideret af processen kan slappe af, da det kun indebærer en simpel snit og pasta job. Efter dette er gjort, programmet sender HTML til søgemaskinen bot. I faste priser, Google ser en webside, der er identisk med den, der ses af brugere på deres browsere. Fordi BromBone har nu kørt JavaScript og gjort AJAX opkald, Google er i stand til korrekt indeksering siden.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.