Google, müəyyən xarici qaynaqları bloklamağın yaxşı olduğunu söyləyir

Son bir JavaScript SEO Office Saatlarında, Google'un Martin Splitt xarici JS və CSS qaynaqlarının bloklanması ilə bağlı bir suala cavab verdi. Sual, resursların bloklanmasının bir saytın reytinqini itirməsinə səbəb olub-olmaması idi.

Ancaq sual verilən bir qırış var idi …

Bloklanan JavaScript və CSS reytinqlərə təsir göstərə bilər

JavaScript və CSS sənədlərinin kilidlənməsi müəyyən vəziyyətlərdə təsnifat problemlərinə səbəb ola bilər. Bunun səbəblərindən biri, veb saytın görüntülənməsi və mobil cihazlarla uyğun olub olmadığını müəyyənləşdirmək üçün Google-ın bəzi sənədlərə ehtiyacı olmasıdır.

Rəsmi Google geliştirici səhifəsi deyir:

"Optimal göstərmə və indeksləşdirmə üçün Googlebot saytınızın istifadə etdiyi JavaScript, CSS və görüntü sənədlərinə həmişə icazə verin ki, Googlebot saytınızı orta hesabla istifadəçi kimi görə bilsin.

Saytınızın robots.txt faylı bu aktivlərin izlənməsinə imkan vermirsə, alqoritmlərimizin məzmununu necə yaxşı işləməsi və indeksləşdirməsi birbaşa zərər verir. Bu, sub-optimal reytinqlərə səbəb ola bilər. "

Xarici JavaScript və CSS-in kilidlənməsi

Sual verən şəxsin Google'un xarici qaynaqları bloklamağa necə reaksiya verə biləcəyindən narahat olması üçün etibarlı səbəbi var.

Sual:

"Xarici JS sənədlərində / CSS sənədlərində başqa bir domendəki JS və ya CSS-ləri bloklamaq üçün robots.txt istifadə etsəniz və ya başqa bir domen onları bloklayırsa, istifadəçi Googlebot-dan fərqli şeylər görəcəkdir?

Google bu cür səhifədən şübhələnir və onları azaldır?

Google'un Martin Splitt inamla cavab verdi:

"Xeyr, biz bir şey yükləmək niyyətində deyilik. Gizlətmək deyil. Gizlətmə xüsusi olaraq istifadəçini aldatmaq deməkdir.

Məzmunu görə bilmədiyimiz üçün mütləq istifadəçini yanıltmağınız demək deyil. "

Gizlətmə, spamerlərin Google'ı təsnif etməsinə və virus və ya spam ilə yüklənmiş veb səhifə kimi istifadəçilərə tamamilə fərqli bir veb səhifəni göstərməməsi üçün bir sıra məzmun nümayiş etdirmək üçün istifadə etdiyi hiylədir.

Gizlətmə, Google'un yayımcıların Google'un bağlantı əlaqələri kimi görmək istəmədiyi URL'ləri sürünməsinin qarşısını almağın bir yoludur.

Martin-nin cavabı xarici mənbələrin bloklanmasının örtük kimi görünməyəcəyi istiqamətindən gəlir və cavabı yoxdur.

Xarici mənbələri necə bloklamaq problemli ola bilər

Martin xarici mənbələrin bloklanmasının bir problemə çevrilə biləcəyini izah etməyə davam edir:

"Məzmununuz yalnız bu mənbələri əldə edə bildiyimiz zaman ortaya çıxsa və göstərilən HTML-dəki məzmunu görməsək, robotlar.txt tərəfindən bloklandığı üçün hələ problem ola bilər.

Buna görə indeksləşdirə bilmirik. Məzmun yoxdursa, onu indeksləşdirə bilmərik. "

Google test alətləri problemləri aşkar edəcək

Martin sonra bir redaktorun qaynaq bağlanmasının problemli olub olmadığını necə diaqnoz edə biləcəyini göstərir.

"Buna görə də bəzi JavaScript və ya CSS mənbələri robot ola bilsə də, səhifədə görmək istədiyiniz məzmunun həqiqətən səhifədə göründüyünü görmək üçün sınaq alətlərimizi sınamağa dəyər.

Ancaq ümumiyyətlə, JavaScript və ya CSS resurslarının robotlaşdırılması özü bir problem deyil. Məzmunu görə bilmiriksə, problem yarana bilər, ancaq örtük baxımından yaxşıdır, örtük deyil. "

Daha sonra aydınlaşdırdı:

"Əgər JavaScript məzmunu yükləsə və bu JavaScript robot olduğuna görə yükləyə bilməsək, görməyəcəyik və bu, problemli ola bilər." Ancaq söhbət qutusu və ya bir şərh vidjeti kimi bir yeniləmə varsa … o zaman problem deyil. "

Redaktor hiyləgər bir sual verdi

Bir söhbət qutusu və ya şərh vidjeti ilə əlaqəli xarici mənbələri bloklamaq yaxşı bir maraqlı cavabdır. Bu mənbələrin bloklanması, məsələn, Google üçün sayt göstərməsini sürətləndirməyə kömək edərsə faydalı ola bilər, amma …

Ancaq verilən sualda bir az qırış var: Robots.txt istifadə edərək xarici mənbələri (başqa bir domendə) blok edə bilməzsiniz.

Orijinal sual iki hissədən ibarət idi.

Bu ilk problemli hissədir:

"Xarici JS sənədlərindəki JS və ya CSS-ləri bloklamaq üçün robotlar.txt istifadə etsəniz / başqa bir domendəki CSS sənədləriniz …"

Sualın bu hissəsini Robots.txt ilə əldə etmək mümkün deyil.

Google geliştirici səhifəsi bu mövzuda bir robots.txt faylı haqqında bəhs edir:

"Eyni host, protokol və port nömrəsindəki bütün alt sənədlərdəki bütün sənədlər üçün etibarlıdır."

Bu suala diqqət yetirilməyən bir şey, robots.txt yalnız mütləq URL-lərdən (sitem xəritə yerindən başqa) yalnız nisbi URL-lər istifadə edir.

Nisbi URL, URL-nin bağlantısı olan səhifəyə "nisbi" deməkdir.

Bir HTACCESS faylında, bütün URL-lər belə görünür:

/file-1/example

Mütləq bir URL kimi görünən budur:

https://www.example.com

Robots.txt faylında mütləq bir URL istifadə edə bilmirsinizsə, deməli robots.txt faylı ilə xarici mənbəyi blok edə bilməzsiniz.

Sualın ikinci hissəsi texniki cəhətdən düzgündür:

"… və ya başqa bir domen onları bloklasa, istifadəçi Googlebot-dan fərqli şeylər görəcəkdir? Doğrudanmı Google bu Sugerencia səhifələrə etinasızlıq göstərib onları aşağı salacaq?

Xarici mənbələr tez-tez digər saytlar tərəfindən bloklanır. Beləliklə, sual və cavab bu istiqamətdən daha çox məna kəsb edir.

Martin Splitt, bu xarici mənbələrin bloklanmasının örtülmədiyini söylədi. Robotlar.txt istifadə etmirsinizsə bu ifadə doğrudur.

Bəlkə də Martinin dediyi budur, amma …

Ancaq sual xüsusilə robotlar.txt haqqında idi.

Gerçək dünyada, xarici qaynaqları robots.txt faylı ilə bloklamaq istəyirsinizsə, bir çoxları gizlətməyə müraciət edirlər.

Cover-up pis bir nüfuza malikdir və yaxşı bir səbəbə görə. Ancaq həqiqət budur ki, hamısı ört-basdır etmək pis deyil. Məsələn, Yoast’da, misal üçün, əlaqəli bağlama gizlətməsi ilə bağlı bir təlimat var.

Bəzi formada gizlətmə, səhifənin necə göstərildiyi ilə əlaqəsi olmayan və Google-ın tövsiyə etdiyi məlumatlarla əlaqəli olmayan mənbələri bloklamaq yolu ola bilər.

Google JavaScript SEO ofis saatları ilə tanış olun: