Cum verificam daca articolele pe care le publicam sunt indexate de motoarele de cautare

Ştim deja cu toţii că publicarea de articole pe blogul companiei, pe alte bloguri sau site-uri partenere, portaluri de comunicate de presă sau de noutăţi în domenii specifice ori generale, este una dintre modalităţile eficiente de promovare a produselor sau serviciilor pe care le oferim în magazinul sau catalogul online.

Pe lângă calitatea conţinutului textual – originalitate şi unicitate, coerenţă şi utilitate – eficienţa acestui tip de promovare şi de educare a publicului privind un anumit domeniu este strâns legată şi de unele aspecte tehnice, de care trebuie să ţinem seamă pentru a fi indexate în motoarele de cautare.

După ce am pregătit un articol frumos şi interesant, după toate regulile specifice de copywriting şi l-am publicat pe blog sau pe un portal de comunicate de presă, vom verifica dacă este indexat.

Cu alte cuvinte, dacă articolul nu este indexat de către motoarele de cautare, acesta nu va fi listat în paginile de rezultate, ca răspuns la căutarile celor interesaţi de tema abordată.

despre-bloguri

sursa: business2community.com

Te așteptăm la următorul nostru curs!

4-5 noiembrie, București: Curs de Inițiere în Email Marketing (nivel: începător)
Înscrie-te aici

18-19 noiembrie, Cluj-Napoca: Curs de inițiere în Content Writing și Copywriting (nivel: începător)
Înscrie-te aici

Articole pe blog: câteva aspecte tehnice uşor de verificat

Fie că este vorba de blogul ataşat magazinului online sau al site-ului de prezentare pe care îl promovăm, indexarea articolelor noi trebuie urmărită şi verificată cu atenţie.

Odată ce am publicat un articol, trebuie să verificăm dacă noua pagină web a fost indexată şi o regăsim în paginile de rezultate Google. Dacă durata de indexare este mare sau pagina nu se indexează deloc, trebuie să identificăm cauzele tehnice sau de conţinut. Verificarea se face prin căutarea URL-ului paginii sau a unui fragment din articol în Google.

În cât timp este indexat un articol nou?

Un articol de blog este (sau ar trebui să fie) indexat în câteva ore – maxim 24 de ore – dacă este corect configurat din punct de vedere tehnic şi/sau blogul nu este penalizat manual sau automat de către Google.

Articolele noi sau paginile de produse noi, integrate pe un site au o durată de indexare în rezultatele Google mai mare decât în cazul paginilor de blog. Dacă nu s-au indexat în câteva zile, este necesară o verificare tehnică a site-ului.

De ce articolul nou pe care l-am publicat nu s-a indexat nici după o săptămână?

indexare-pagini-web

sursa: chadburgess.org

Ce trebuie să verificăm: fişierul Sitemap.xml, comenzi de restricţionare în codul sursă sau în fişierul Robots.txt, conţinutul duplicat.

1. Fişierul Sitemap.xml

Acesta este o hartă a site-ului, prin care le spunem roboților ce pagini din site-ul nostru vrem să fie indexate. Aşadar, verificăm dacă există acest fişier în site şi dacă pagina pe care am creat-o pentru articolul cel nou este şi ea listată aici.

Cum verificăm?
Testăm URL-ul clasic pentru acest tip de fişier: http://www.my-site.ro/sitemap.xml

Dacă nu-l găsim, este posibil ca fişierul să aibă un alt tip de URL, pe care îl găsim în fişierul Robots.txt (http://www.my-site.ro/robots.txt) sau pur şi simplu nu există şi trebuie să îl configurăm.

Cum va şti Google că am un fişier Sitemap.xml şi vreau să mi-l indexeze mai repede?

Pentru ca indexarea să fie mai rapidă, iar Google să treacă mai repede prin site-ul meu şi astfel să vadă că am pagini noi, fişierul Sitemap.xml trebuie trimis pentru indexare către Google prin intermediul contului Webmaster Tools.

În secţiunea Crawl a tab-ul Sitemaps, trimit fişierul meu către Google şi în câteva ore îmi va spune câte pagini din site sunt indexate sau îmi va spune că am probleme din cauza cărora nu poate să citească / să indexeze anumite pagini.

Putem să remediem noi problemele sau avertismentele semnalate, ori să cerem ajutorul unui programator, dacă nu ne descurcăm cu recomandările din secţiunea de ajutor (Help Center). 

2. Comenzi de restricţionare în codul sursă sau în fişierul Robots.txt

Roboţii ce indexează şi clasifică site-urile în funcţie de numeroase criterii (calitate, relevanţă, design, navigabilitate, popularitate etc.),  « citesc » site-ul nostru şi înregistrează în baza lor de date conţinutul, paginile pe care noi vrem să le indexeze.

Folosim fisierul Sitemap.xml ca să spunem ce pagini vrem să fie adăugate la index şi anumite comenzi prin care blocăm indexarea celor pe care nu vrem să le indexeze.

  • În fişierul Robots.txt comanda « Disallow: » indică roboţilor pagini sau foldere pe care le excludem la indexare
  • În codul sursă comanda « meta noindex » impiedică URL-urile pe care le marchează să apară în index, chiar şi atunci când există link-uri care duc spre aceste pagini.

Problemele de indexare apar atunci când din greşeală folosim astfel de comenzi de restricţionare şi pentru pagini sau rubrici întregi, şi în care poate tocmai am inclus şi articolul care nu este indexat.

3. Conţinutul duplicat 

duplicate-content

sursa: business2community.com

Algoritmii de indexare şi de ranking au ca scop să ofere utilizatorilor informaţii cât mai exacte şi utile, informaţii (pagini web) pe care le consideră răspunsuri relevante la întrebările (căutările) acestora.

În acelaşi timp, încearcă să excludă sau să claseze cât mai jos paginile web pe care le consideră de calitate slabă sau copiate (care redau integral sau parţial conţinut pe care l-a regăsit deja pe alte pagini web).

Aşadar, dacă ne-am inspirat din alte surse pentru articolul nostru sau am primit articolul deja redactat, putem să verificăm cât de aproape este de articolele-sursă cu ajutorul unor instrumente gratuite precum copyscape. Evităm astfel situaţia neplăcută în care indexarea paginii de către motoarele de cautare durează foarte mult sau chiar o posibilă penalizare.

Elena Ilie

Fie că ne convine sau nu, SEO este un ingredient esențial în marketingul online, iar regulile jocului – destul de schimbătoare de ceva vreme – îi derutează pe cei ce nu reușesc să țină pasul cu oamenii și cu vremurile. E adevărat, nici backlink-urile nu mai sunt ce erau cândva, dar asta nu înseamnă că nu mai facem SEO sau linkbuilding sau că trebuie să păstrăm unele backlink-uri pe criterii de simpatie/vs/antipatie față de bloggerul pe care în urmă cu câțiva ani l-am onorat cu nenumărate comentarii (cu link-uri către site-ul sau blogul nostru). Dezvoltare-site-seo.ro.

  • Bella

    Buna,

    Si totusi, exista vreun site care sa ne arate cate link-uri s-au indexat intr-o luna?

    Multumesc!

    • Elena ILIE

      Buna Bella,

      – indexarea link-urilor se poate verifica in Google Webmaster Tools la sectiunea pentru fisierul Sitemap.xml; acest fisier din site se actualizeaza automat la fiecare noua pagina adugata in site iar in Google Webmaster Tools ar trebui sa vad daca s-au indexat noile pagini (daca eu aveam in fisierul Sitemap.xml initial 20 link-uri indexate si dupa ce am mai adaugat 20 de pagini in Webmaster Tools nu imi raporteaza volumul total de 40 link-uri / URL-uri … inseamna ca nu au fost indexate inca)

  • Roxana

    Buna, am si eu o intrebare, cum scot un site din index? Am unul nou si nu vreau sa apara continut duplicat.

Vrei să fii la curent cu noutățile? Înscrie-te!