Pasul 1: identificați adresa URL care nu poate fi accesată cu crawlere
Paginile care nu pot fi accesate cu crawlere pot avea 3 efecte asupra anunțurilor dinamice afișate în rețeaua de căutare:
- dacă selectați
URL-Equals
drept tip de direcționare și dacă adresa URL nu poate fi accesată cu crawlere, direcționarea dinamică a anunțului va avea starea „Respinsă: pagina nu poate fi accesată cu crawlere”; - dacă folosiți feeduri de pagini și dacă o adresă URL din feed nu poate fi accesată cu crawlere, pe rândul corespunzător adresei respective din arhiva comună va apărea starea „Respinsă: pagina nu poate fi accesată cu crawlere”;
- dacă folosiți orice alt mecanism de direcționare și dacă o adresă URL nu este sau nu poate fi accesată cu crawlere, Google Ads nu va ști că există, deci nu va apărea niciun mesaj de eroare. Dacă o adresă URL pe care încercați să o vizați nu înregistrează trafic, puteți remedia problema vizând-o, mai întâi, prin
URL-Equals
sau feeduri de pagini. Există două continuări posibile: adresa URL va înregistra trafic sau va apărea o eroare care va explica de ce nu înregistrează trafic.
Pasul 2: asigurați-vă că Google AdsBot poate accesa pagina de destinație
- Copiați adresa URL și inserați-o în bara de adrese a unui browser web.
- Adăugați
/robots.txt
la finalul numelui domeniului, apoi apăsați pe Enter. (De exemplu, dacă pagina de destinație estehttp://example.com/folder1/folder2/
, accesațihttp://example.com/robots.txt
pentru a afla ce roboți au permisiunea de a accesa cu crawlere domeniul.) - Căutați rândul
User-agent: AdsBot-Google
.- Dacă nu apare, colaborați cu webmasterul pentru a-l adăuga.
- Dacă pagina este goală, colaborați cu webmasterul pentru a adăuga un fișier
robots.txt
pe domeniu. - Dacă
User-agent: AdsBot-Google
apare, asigurați-vă că nu este urmat de un rând cu textulDisallow: /
. În plus, asigurați-vă că AdsBot-Google nu este restricționat de un alt rând din fișier. Despre fișierelerobots.txt
și crawlerele Google
- Dacă pagina de destinație este un subdomeniu, verificați dacă acesta are un fișier
robots.txt
separat. De exemplu,https://subdomain.domain.com/robots.txt
. Asigurați-vă cărobots.txt
permite șiUser-agent: AdsBot-Google
. - Deschideți sursa adresei URL. În Chrome, puteți face acest lucru deschizând
view-source:THE_URL
. De exemplu, dacă pagina de destinație estehttp://example.com/folder1/folder2/
, puteți accesaview-source:http://example.com/folder1/folder2/
pentru a afla ce roboți au permisiunea de a accesa domeniul.) - Căutați șirul „
AdsBot-Google
”.- Dacă nu apare, aceasta nu este sursa problemei.
- Dacă șirul apare într-o etichetă precum
<meta name="AdsBot-Google" content="noindex" />
, apelați la webmaster pentru a o elimina. Aflați mai multe despre metaetichetele pe care le înțelege Google
Alte motive pentru care o pagină de destinație nu poate fi accesată cu crawlere
Dacă Google AdsBot are permisiunea de a accesa pagina de destinație (User-agent: AdsBot-Google
este deja inclus în fișierul robots.txt
), poate exista un alt motiv pentru care pagina nu poate fi accesată cu crawlere.
- Pagina de destinație nu se încarcă. Dacă deschideți pagina într-un browser web și apare o eroare (de exemplu, „404 - pagina nu a fost găsită”, „Site-ul nu poate fi accesat”, „Sesiunea a expirat”), luați legătura cu webmasterul site-ului pentru a vă asigura că pagina de destinație se încarcă în orice mediu (dispozitive mobile sau computere) sau browser.
- Pagina de destinație impune conectare. Toate paginile de destinație ale anunțurilor trebuie să poată fi accesate de public. Folosiți o altă pagină de destinație sau colaborați cu webmasterul pentru a anula cerința de conectare.
- Pagina de destinație are prea multe redirecționări. Numărul maxim permis de redirecționări este 10. Colaborați cu webmasterul pentru a reduce numărul de redirecționări. Aflați mai multe despre redirecționările web