După ce configurați un fișier app-ads.txt pe domeniul dvs. de dezvoltator, crawlerul Google:
- va încerca să acceseze fișierul cu crawlere;
- va analiza conținutul acestuia pentru a afla care sunt codurile de vânzător autorizate să genereze bani pe baza inventarului dvs.
Pentru a vă asigura că fișierul app-ads.txt poate fi accesat cu crawlere, vă recomandăm să urmați pașii de remediere a erorilor prezentați în continuare.
- Asigurați-vă că fișierul nu este temporar indisponibil
- Asigurați-vă că fișierul poate fi accesat din domeniul rădăcină
- Asigurați-vă că accesarea cu crawlere nu este interzisă de robots.txt
- Asigurați-vă că fișierul este returnat cu un cod de stare HTTP 200 OK
- Asigurați-vă că în fișier nu există erori de formatare sau caractere nevalide
- Creați un fișier app-ads.txt accesibil atât prin HTTP, cât și prin HTTPS
Asigurați-vă că fișierul nu este temporar indisponibil
Dacă un fișier app-ads.txt văzut anterior nu este disponibil pentru o accesare ulterioară, atunci intrările văzute anterior:
- vor fi eliminate dacă răspunsul este o eroare 404 completă (pagina nu există; stare HTTP 404);
- vor fi păstrate timp de maximum cinci zile dacă răspunsul este o eroare 404 parțială (s-a afișat o pagină reală pentru o adresă URL care nu există; stare HTTP 200) sau o eroare de server 500.
Asigurați-vă că fișierul poate fi accesat din domeniul rădăcină
Redirecționările de la domain.com/app-ads.txt
la domain.com/app-ads.txt
sunt obișnuite. Accesarea cu crawlere a fișierului app-ads.txt va începe de la domeniul rădăcină. Domeniul rădăcină trebuie să returneze de la fișierul respectiv sau să redirecționeze către acesta.
domain.com/app-ads.txt
va fi accesat cu crawlere numai dacă domain.com/app-ads.txt
redirecționează la acesta.Asigurați-vă că accesarea cu crawlere nu este interzisă de robots.txt
Este posibil ca fișierul app-ads.txt să fie ignorat de crawlere dacă un fișier robots.txt restricționează accesarea cu crawlere. Dacă adresa URL a fișierului app-ads.txt redirecționează către un alt nume de gazdă, orice fișier robots.txt din numele de gazdă ulterior poate influența și accesarea cu crawlere.
Actualizați fișierul robots.txt pentru ca Google să vă poată accesa cu crawlere fișierul app-ads.txt.
Adăugați următoarele două rânduri de text în fișierul robots.txt:
User-agent: Google-adstxt
Disallow:
Google-adstxt
, crawlerul va respecta și înregistrările User-agent
robots.txt Mediapartners-Google
și Googlebot
.Asigurați-vă că fișierul este returnat cu un cod de stare HTTP 200 OK
Cu toate că o solicitare de fișier app-ads.txt poate returna conținutul fișierului în conținutul răspunsului, în situația în care codul de stare din antetul răspunsului indică faptul că fișierul nu a fost găsit (de exemplu, cod de stare 404):
- răspunsul va fi ignorat;
- se va considera că fișierul nu există.
Asigurați-vă că fișierul are un cod de stare HTTP 200 OK.
Asigurați-vă că în fișier nu există erori de formatare sau caractere nevalide
Erorile de formatare, cum ar fi caracterele nevalide de spațiu alb, pot fi greu de detectat și pot îngreuna analizarea unui fișier app-ads.txt de către un crawler. Ca atare, este posibil ca acesta să fie ignorat.
Nu copiați și inserați intrări app-ads.txt dintr-un editor de text îmbogățit. Vă recomandăm să folosiți un editor de text simplu. Puteți verifica și dacă există caractere UTF-8 nevalide în fișierul app-ads.txt, cu un editor HEX.
Creați un fișier app-ads.txt accesibil atât prin HTTP, cât și prin HTTPS
Crawlerul Google încearcă să acceseze cu crawlere toate fișierele app-ads.txt atât prin HTTP, cât și prin HTTPS. Cu toate acestea, un răspuns 404 (sau 40X) duce la eliminarea intrărilor accesate anterior, chiar dacă un fișier app-ads.txt este accesat prin HTTP. Ca atare, dacă accesarea cu crawlere prin HTTPS returnează un răspuns 404 (sau 40X):
- Intrarea accesată anterior va fi eliminată.
Asigurați-vă că fișierul app-ads.txt poate fi accesat atât prin HTTP, cât și prin HTTPS.