Cum se remediază: eroare robots.txt

Actualizați fișierul robots.txt pentru ca entitățile user-agent Googlebot să poată accesa cu crawlere site-ul dvs. cu elementele 3D.

Google nu vă poate accesa site-ul cu crawlere și nu poate colecta informații despre elementele 3D. Pentru a permite accesul Google la conținutul dvs., asigurați-vă că fișierul robots.txt permite user agent Googlebot să acceseze cu crawlere site-ul dvs.

În acest sens, puteți adăuga următoarele rânduri la fișierul robots.txt:

User-agent: Googlebot

Disallow:

Aflați mai multe despre Protocolul de excludere a aplicațiilor robot.

După ce încărcați și testați fișierul robots.txt, crawlerele Google vor găsi și vor începe să folosească automat fișierul robots.txt. Nu trebuie să luați nicio măsură. Dacă ați actualizat fișierul robots.txt și trebuie să actualizați cât mai curând posibil copia din cache-ul Google, aflați cum să trimiteți un fișier robots.txt actualizat.

Google poate folosi informațiile de la oricare dintre aceștia sau sau de la alți user agents pentru a îmbunătăți sistemele Google Ads.

A fost util?

Cum putem să îmbunătățim această pagină?

Aveți nevoie de mai mult ajutor?

Încercați pașii următori:

Căutare
Șterge căutarea
Închide căutarea
Meniu principal
7419426077973573057
true
Căutaţi în Centrul de ajutor
true
true
true
true
true
104514
false
false
false
false