Ce urmarim pentru o mai buna indexare in Google?

Fie că vrei un website nou sau doar adaugi un blog site-ului existent, scopul tău este ca acesta sa fie găsit de către utilizatori. Evident, unul dintre cele mai importante medii prin care poate fi găsit este prin motoarele de căutare și de ce să nu fim subiectivi, Google.

Cum are loc indexarea în cel mai rapid mod cu putință?

Cu siguranță vrei să afli răspunsul la această întrebare, dar până atunci trebuie să știi ce apare în motoarele de căutare și cine este responsabil de această apariție.

Să începem prin a explica ce este un Googlebot și care este diferența dintre indexing și crawling. Un Googlebot este un search bot software, sau, mai pe românește, un algoritm care caută modificările sau adăugările în conținutul online și le inserează în indexul de la Google.

Prin crawling se caută informațiile ce trebuie indexate, Googlebot-ul folosind link-urile ca un mijloc de transport. După ce sunt raportate informațiile găsite către Google, prin indexare acestea se procesează și se determină dacă reprezintă conținut de calitate care merită să apară în motoarele de căutare pe poziții superioare. Practic, paginile web sunt „înțelese” de către Google.

În timpul indexării sunt procesate toate cuvintele dintr-o pagină, precum și poziția lor, iar imaginile sunt, de asemenea, indexate prin atributul ALT. Evident, acest proces este mult mai complex pe zi ce trece, după cum ne informează și multitudinea de update-uri ale algoritmului celor de la Google.

În concluzie, fiecare cuvânt sau element HTML din pagina ta web poate influența pozitiv sau negativ modul în care aceasta este indexată și returnată ca rezultat în căutări. De ce? Google vrea sa extragă cât mai multe informații de pe pagină pentru o filtrare cât mai bună. Aici vei găsi foarte multe informații interesante despre rich snippets și structured data. Implementarea acestora necesită mai multe cunoștințe de web development, dar vei descoperi că poți scoate în evidentă următoarele tipuri de content:

  • Recenzii
  • Oameni, autori
  • Produse
  • Companii și organizații
  • Rețete
  • Evenimente
  • Muzică
markups
markups

Aceste rich snippets oferă mai multa încredere utilizatorilor și atrag mai multe vizite. Verificarea lor se poate face prin urmatorul tool oferit de Google, care simulează modul în care pagina apare în motorul de căutare.

Pe lângă toate aceste informatii puțin mai complexe și poate mai puțin cunoscute sunt procesate si celebrele „title tag” și „meta description” care apar în căutări și reprezintă un important factor de SEO on-page.

titletag

Cum te asiguri că îți păstrezi drepturile de autor asupra contentului?

Google pune mult preț pe conținut original. Dacă ai probleme cu indexarea rapidă a articolelor noi, probabil ai și teama că altcineva îți va fura drepturile de autor asupra lor. Din păcate nu poți controla căt de repede ți se va indexa pagina nouă, sau pagina celui care a „furat” articolul, dar poți citi mai multe despre astfel de probleme pe Digital Millennium Copyright Act al celor de la Google.

Recomandarea mea, ca și a mai multor specialiști în domeniu, este să dai share imediat în rețelele de socializare, astfel ai un timestamp favorabil și grăbești procesul de indexare.

Codul curat contează

Oricat de valoros ar fi content-ul site-ului tău, dacă site-ul nu a fost dezvoltat într-un mod profesionist și orientat spre SEO, nu va putea fi valorificat la potențialul său maxim. Ca dezvoltator trebuie să ajuți Googlebot-ul să găsească cât mai ușor titlul articolului, contentul dar și structura internă de linkuri a site-ului care de obicei se află in meniu, sidebar sau footer.

Transferarea conținutului CSS și Javascript în fișiere externe, acțiune care îmbunătățește și viteza de încărcare a site-ului este de asemenea benefică procesului de indexare. O problemă o reprezintă și încărcarea dinamică a paginilor prin Javascript și AJAX, conținutul fiind mai greu indexat de către Google. O pagină web trebuie să se încarce adecvat și repede în toate browserele. De asemenea, faptul că este afișată corespunzator pe dispozitivele mobile reprezintă un plus imens pentru utilizatori și a motoarele de căutare.

Astfel, codul curat nu ajută doar la SEO ci îmbunătățește și experiența utilizatorilor.

Sitelinks, ce sunt și in ce condiții apar?

Destul de populare în rândul brandurilor sunt acele sub-linkuri care apar în Google sub indexul site-ului. Acestea apar doar la căutarea specifică a unui brand si dacă site-ul are o structură de linkuri internă foarte bine definită. Nu pot fi selectate linkurile care apar în sitelinks, dar pot fi înlăturate linkurile care nu se doresc a fi afișate.

sitelinks

Revenind la indexare, cum se îmbunătățește procesul?

Deși totul se produce și în mod natural, există metode prin care se poate grăbi indexarea unui link nou. Voi enumera o listă cu câteva opțiuni, testate și folosite de mine:

  1. Folosește-te de Google Webmaster Tools și Google Analytics. Aici vei găsi rapoarte detaliate despre erorile de crawling și indexing ale site-ului.
  2. Crearea unui sitemap XML: un document care listează toate paginile site-ului împreună cu informații despre data postării și a modificării. WordPress are la dispoziție câteva plugin-uri care facilitează crearea unui sitemap, dintre care subliniez Google XML Sitemap. În alte situații, sau dacă vrei să uploadezi personal sitemap-ul pe server poți folosi online XML Sitemap Generator.
  3. Crearea fișierului robots.txt, unul dintre primele fișiere căutate de Googlebot, care conține câteva instrucțiuni pentru acesta.
  4. După crearea sitemap-ului și a robots.txt, le poți adăuga și testa în Webmaster tools la Crawl -> Sitemaps respectiv Crawl -> robots.txt Tester
  5. În cazul în care ai probleme cu indexarea linkurilor noi, poți cere indexarea forțată prin Submit URL și Fetch URL, tool-uri care nu trebuie folosite excesiv.
  6. Share the link. Folosește la maxim rețelele sociale Twitter, Facebook, Google+, LinkedIn, Pinterest, canale YouTube. Dintre toate, evident se pune accent pe Google+, fiind in-house are o influență mult mai mare.

Cum opresti indexarea sau blochezi doar anumite pagini?

În cazul în care vrei ca doar anumite pagini să nu fie indexate de către motoarele de căutare poți folosi următorul meta tag:

<meta name=”robots” content=”noindex”>

Iar dacă vrei ca o anumită pagină să nu fie indexată doar de Google folosește:

<meta name=”googlebot” content=”noindex”>

Pentru blocarea oricărui tip de crawling pe site adaugă următoarele linii în robots.txt:

User-agent: *
Disallow: /

Rezultatele

Prin pașii enumerați mai sus poți face ca site-ul tău să se remarce în fața competitorilor tăi. Odată indexat corespunzător, site-ul va primi mai mult trafic din motoarele de căutare atât din Web Search cât și din Images. De notat este faptul că blogurile au nevoie de mai multă atenție decât site-urile statice, dat fiind faptul că sunt actualizate mult mai des.

Bogdan Pană

Specialist în Online Marketing, în special SEO si vreau să împărtășesc cât mai mult din experiența mea in această comunitate. Mai multe despre mine pe blogul personal Pana Bogdan.

Ai un proiect în minte?

Pune-ți ideile în mișcare. Dacă te gândești la un proiect, programează o întâlnire acum.

Let's rock