Google nu vă poate accesa site-ul cu crawlere și nu poate colecta informații despre elementele 3D. Pentru a permite accesul Google la conținutul dvs., asigurați-vă că fișierul robots.txt permite user agent Googlebot să acceseze cu crawlere site-ul dvs.
În acest sens, puteți adăuga următoarele rânduri la fișierul robots.txt:
User-agent: Googlebot
Disallow:
Aflați mai multe despre Protocolul de excludere a aplicațiilor robot.
După ce încărcați și testați fișierul robots.txt, crawlerele Google vor găsi și vor începe să folosească automat fișierul robots.txt. Nu trebuie să luați nicio măsură. Dacă ați actualizat fișierul robots.txt și trebuie să actualizați cât mai curând posibil copia din cache-ul Google, aflați cum să trimiteți un fișier robots.txt actualizat.
Google poate folosi informațiile de la oricare dintre aceștia sau sau de la alți user agents pentru a îmbunătăți sistemele Google Ads.