
Google Search Console'da "engellenen CSS/JS" uyarılarını Robots.txt ayarlarıyla giderme yolları.
Modern web sitelerinin temelini oluşturan CSS (Basamaklı Stil Sayfaları) ve JS (JavaScript) dosyaları, bir sayfanın görünümünü, işlevselliğini ve genel kullanıcı deneyimini belirleyen kritik bileşenlerdir. Ancak zaman zaman bu dosyaların Googlebot tarafından erişilemez olması, yani "engellenmesi" durumuyla karşılaşılabilir. Google Search Console'da (GSC) beliren "engellenen CSS/JS" uyarıları, bir sitenin
SEO performansı üzerinde olumsuz etkiler yaratabilir. Bu makalede, bu tür uyarıların nedenlerini, Google için önemini ve özellikle `robots.txt` dosyası ayarlarını doğru bir şekilde yapılandırarak bu sorunları nasıl giderebileceğimizi detaylıca inceleyeceğiz.
Engellenen CSS/JS Neden Önemlidir?
Google'ın sayfa içeriğini doğru bir şekilde anlaması ve sıralama faktörlerini uygulayabilmesi için sayfaları tıpkı bir kullanıcının gördüğü gibi render etmesi, yani oluşturması gerekir. Bu render süreci sırasında, sayfanın stilini belirleyen CSS dosyalarına ve etkileşimini sağlayan JavaScript dosyalarına erişim olmazsa, Googlebot sayfayı eksik veya yanlış yorumlayabilir.
Düşünün ki Googlebot, bir web sayfasını ziyaret ediyor ve bu sayfanın görsel bileşenleri ile interaktif öğelerine ulaşamıyor. Bu durumda:
*
Mobil Uyumluluk Sorunları: Özellikle mobil-first indeksleme çağında, Google'ın sitenizi mobil cihazlarda doğru şekilde görmesi hayati önem taşır. CSS ve JS olmadan mobil görünüm bozulur ve bu, sitenizin mobil uyumluluk testlerinden geçememesine neden olabilir.
*
Kullanıcı Deneyimi Değerlendirmesi: Google, sayfa hızı ve Core Web Vitals gibi kullanıcı deneyimi metriklerini sıralama faktörü olarak kullanır. Engellenen kaynaklar, sayfanın doğru yüklenmesini geciktirebilir veya tamamen engelleyebilir, bu da kullanıcı deneyimini doğrudan olumsuz etkiler.
*
Yanlış İçerik Anlayışı: JavaScript ile dinamik olarak yüklenen içerikler, eğer JS dosyası engellenirse Googlebot tarafından görülemeyebilir. Bu da sitenizin arama sonuçlarındaki görünürlüğünü azaltır.
*
Güven ve Alaka Düzeyi: Google, bir sayfanın tasarımı ve işlevselliği hakkında doğru bilgi edinmek ister. Engellenen kaynaklar, sitenizin kalitesiz veya eksik görünmesine yol açarak güvenilirlik puanınızı düşürebilir.
Bu nedenlerden ötürü,
Google Search Console'da beliren CSS/JS engelleme uyarıları asla göz ardı edilmemelidir. Bu uyarılar, sitenizin arama motorlarındaki yerini doğrudan etkileyebilecek ciddi sorunlara işaret eder.
Robots.txt Dosyasının Rolü ve Engelleme Mekanizması
`robots.txt` dosyası, web sitenizin kök dizininde bulunan ve arama motoru botlarına sitenizin hangi bölümlerini tarayabilecekleri veya tarayamayacakları konusunda talimatlar veren basit bir metin dosyasıdır. Bu dosya, özellikle
tarama bütçesi yönetiminde ve hassas bilgilerin arama motoru indekslerine girmesini engellemede kritik bir rol oynar. Örneğin, bir sitenin yönetici paneli (`/wp-admin/`) veya hassas kullanıcı verileri içeren dizinleri `robots.txt` ile taranmaya kapatılabilir.
Ancak iyi niyetli bu engellemeler, bazen önemli CSS ve JS dosyalarını da yanlışlıkla kapsayabilir. Özellikle WordPress gibi içerik yönetim sistemlerinde (CMS), varsayılan `robots.txt` dosyaları bazı eklenti veya tema dizinlerini taramaya kapatabilir. Eğer bu dizinler içerisinde sitenizin görünümü veya işlevselliği için hayati öneme sahip CSS/JS dosyaları varsa, Googlebot bunları tarayamaz ve "engellenen CSS/JS" uyarısıyla karşılaşırsınız.
Sık Karşılaşılan Robots.txt Engelleme Örnekleri:
*
`/wp-includes/`: WordPress'in temel çekirdek dosyalarını içeren dizindir. Bu dizin genellikle taranmaya kapatılır, ancak bazen burada yer alan bazı JS dosyaları render için gerekli olabilir.
*
`/wp-content/plugins/` veya `/wp-content/themes/`: Eklenti ve tema dosyaları genellikle bu dizinlerde yer alır. Eğer bu dizinlerin tamamı `Disallow` komutuyla engellenirse, tema veya eklentilere ait CSS ve JS dosyalarına da erişilemez.
*
Genel `Disallow` Kuralları: Bazen `Disallow: /*.js$` veya `Disallow: /*.css$` gibi kurallar, sitenizdeki tüm JS ve CSS dosyalarını engellemeye çalışır. Bu neredeyse her zaman yanlış bir yaklaşımdır.
*
Eski veya Yanlış Yapılandırılmış Robots.txt: Siteniz taşınmış, yeniden yapılandırılmış veya eski bir `robots.txt` dosyası yeni ihtiyaçları karşılamayabilir.
Engellenen Kaynakları Google Search Console'da Tespit Etme
"Engellenen CSS/JS" uyarılarını tespit etmenin en güvenilir yolu
Google Search Console'dur. GSC, sitenizle ilgili botların karşılaştığı sorunları detaylıca raporlar.
1.
Kapsam (Coverage) Raporu: Bu raporda "Hata" veya "Uyarı" başlıkları altında, Googlebot'un tararken veya indekslerken sorun yaşadığı sayfaları görebilirsiniz. Bazen engellenen kaynaklar nedeniyle bu sayfaların durumu "Uyarı" olarak işaretlenir.
2.
URL Denetleme (URL Inspection) Aracı: GSC'nin en güçlü araçlarından biridir. Sorun yaşadığınızı düşündüğünüz bir sayfanın URL'sini buraya yapıştırarak Google'ın o sayfayı nasıl gördüğünü test edebilirsiniz. "Canlı URL'yi Test Et" seçeneği, Googlebot'un o an sayfayı nasıl render ettiğini gösterir. Bu testin sonucunda, sayfanın yüklenemeyen veya engellenen kaynaklarını ayrıntılı bir listeyle görebilirsiniz. Bu, sorunun tam olarak hangi CSS veya JS dosyasından kaynaklandığını belirlemenize yardımcı olur.
3.
Mobil Kullanılabilirlik (Mobile Usability) Raporu: Engellenen CSS/JS dosyaları genellikle mobil uyumluluk sorunlarına yol açtığı için, bu rapor da sitenizde sorunlu sayfalar olup olmadığını gösterecektir.
Robots.txt Ayarlarını Düzenleyerek Sorunu Giderme Yolları
Engellenen CSS/JS sorununu çözmenin temel yolu, Googlebot'un bu kritik dosyalara erişimini sağlamaktır. Bu genellikle `robots.txt` dosyasındaki `Disallow` kurallarını dikkatlice gözden geçirerek veya düzenleyerek yapılır.
Adım 1: Mevcut Robots.txt Dosyasını İnceleyin
Sitenizin kök dizininde `robots.txt` dosyasını bulun (örneğin, `www.siteniz.com/robots.txt`). Bu dosyayı bir metin düzenleyiciyle açın ve içeriğini dikkatlice analiz edin. Özellikle `User-agent: Googlebot` veya `User-agent: *` (tüm botlar) başlıkları altında yer alan `Disallow` kurallarına odaklanın.
Adım 2: Engellenen Dizinler veya Dosyalar İçin "Allow" Kuralı Ekleme veya "Disallow" Kuralını Kaldırma
Tespit ettiğiniz engellenen CSS/JS dosyalarının hangi dizinlerde yer aldığını URL Denetleme aracından öğrenin. Örneğin, `wp-content/themes/mytheme/style.css` engelleniyorsa, muhtemelen `Disallow: /wp-content/` veya `Disallow: /wp-content/themes/` gibi bir kural mevcuttur.
Yapılması Gerekenler:1.
Disallow Kurallarını Kaldırın (En Sık Kullanılan Çözüm): Eğer bir dizin içerisinde sadece render için kritik olan dosyalar varsa ve bu dizinin tamamının taranmasını engellemenizin özel bir nedeni yoksa, ilgili `Disallow` kuralını tamamen kaldırabilirsiniz.
*
Örnek: `Disallow: /wp-includes/` kuralını `robots.txt` dosyanızdan kaldırın.
*
Örnek: `Disallow: /wp-content/plugins/` kuralını kaldırın.
2.
Allow Kuralı Kullanarak İstisna Tanımlayın: Eğer bir dizinin genel olarak taranmasını engellemek istiyor, ancak içindeki belirli CSS/JS dosyalarına izin vermek zorundaysanız, `Allow` kuralını `Disallow` kuralından önce kullanabilirsiniz.
* `Allow` kuralları, `Disallow` kurallarından önce işlenir ve daha spesifik olmaları halinde öncelik kazanırlar.
*
Örnek: Diyelim ki `/assets/` dizinini engelliyorsunuz ancak `/assets/css/style.css` dosyasının taranmasını istiyorsunuz:
```
User-agent: *
Disallow: /assets/
Allow: /assets/css/style.css
```
* Bu yöntem, `/wp-content/` gibi geniş dizinlerde belirli eklenti veya tema dosyalarına erişim sağlamak için de kullanılabilir:
```
User-agent: *
Disallow: /wp-content/
Allow: /wp-content/themes/yourtheme/style.css
Allow: /wp-content/plugins/yourplugin/script.js
```
* Ancak genellikle, render için gerekli olan bu tür dizinlerin tamamen `Disallow` edilmemesi en basit ve güvenli yaklaşımdır. WordPress için `/wp-admin/` gibi gerçekten taranmasını istemediğiniz yönetici paneli dizinleri dışındaki `/wp-includes/`, `/wp-content/themes/` ve `/wp-content/plugins/` gibi dizinlerin engellenmemesi tavsiye edilir.
Adım 3: Robots.txt Retici (Robots.txt Generator) Kullanımı
Manuel olarak `robots.txt` düzenlemesi hatalara yol açabilir. Özellikle karmaşık sitelerde, doğru kuralları oluşturmak zor olabilir. Bu noktada bir
Robots.txt Retici veya
Robots.txt Generator aracı kullanmak işinizi kolaylaştırabilir. Bu araçlar, sitenizin gereksinimlerine göre doğru `robots.txt` dosyasını oluşturmanıza veya mevcut dosyanızı analiz etmenize yardımcı olur. Doğru ve güncel bir `robots.txt` dosyası oluşturmak, hataları minimuma indirerek
site hızı ve
SEO optimizasyonu için zemin hazırlar.
Adım 4: Değişiklikleri Kaydetme ve Yükleme
Düzenlediğiniz `robots.txt` dosyasını `robots.txt` adıyla kaydedin ve sitenizin kök dizinine yükleyin. Bu genellikle FTP/SFTP aracılığıyla veya hosting kontrol paneliniz üzerinden yapılır.
Adım 5: Değişiklikleri Test Etme ve Google'a Bildirme
1.
Google Search Console Robots.txt Test Aracı: GSC'de "Ayarlar > Tarama > robots.txt test aracı" bölümüne giderek yeni `robots.txt` dosyanızı test edin. Bu araç, belirlediğiniz bir URL için Googlebot'un hangi kurallara göre hareket edeceğini ve herhangi bir kaynağın engellenip engellenmediğini gösterir. Bu adım, canlıya almadan önce olası hataları tespit etmek için kritik öneme sahiptir.
2.
URL Denetleme Aracını Tekrar Kullanma: Sorunlu sayfaların URL'lerini tekrar URL Denetleme aracında "Canlı URL'yi Test Et" seçeneğiyle kontrol edin. Engellenen kaynaklar listesinin boşaldığından emin olun.
3.
GSC'ye Robots.txt'yi Gönderme: Değişiklikleri onayladıktan sonra, GSC'deki "Ayarlar > Tarama > robots.txt test aracı" bölümünden "Gönder" butonuna tıklayarak Google'a güncel `robots.txt` dosyanızın varlığını bildirin. Bu, Google'ın değişiklikleri daha hızlı fark etmesini sağlar.
Adım 6: İzleme ve Gözlem
`robots.txt` değişiklikleri hemen yansımayabilir. Googlebot'un sitenizi tekrar tarayıp yeni `robots.txt` dosyasını işlemesi ve GSC raporlarını güncellemesi zaman alacaktır (birkaç gün ila birkaç hafta). Bu süre zarfında GSC'deki "Kapsam" ve "Mobil Kullanılabilirlik" raporlarını düzenli olarak izleyerek uyarıların azaldığından veya kaybolduğundan emin olun.
Önemli Notlar ve En İyi Uygulamalar
*
Sadece Gerçekten Gerekli Olanı Engelleyin: `robots.txt` dosyasını kullanırken ana prensip, yalnızca arama motorlarının taramasını ve indekslemesini istemediğiniz içerikleri engellemektir. CSS ve JS dosyaları neredeyse her zaman render için gereklidir ve engellenmemelidir.
*
Küçük Başlayın ve Test Edin: Özellikle `robots.txt` konusunda deneyimli değilseniz, büyük değişiklikler yapmak yerine küçük, hedefli değişiklikler yapın ve her değişikliği GSC'deki test araçlarıyla doğrulayın.
*
Cache Temizliği: Eğer bir CMS (WordPress gibi) kullanıyorsanız ve bir önbellekleme (cache) eklentisi yüklüyse, `robots.txt` dosyasını güncelledikten sonra sitenizin önbelleğini temizlediğinizden emin olun. Aksi takdirde, eski `robots.txt` dosyası sunulmaya devam edebilir.
*
Diğer Robots.txt Makalelerine Göz Atın: `/makale.php?sayfa=robots-txt-nedir-ve-nasil-kullanilir` gibi genel
robots.txt kullanım kılavuzlarına başvurarak temel bilgilerinizi pekiştirebilirsiniz. Ayrıca, Google Search Console'a yeniyseniz, `/makale.php?sayfa=google-search-console-rehberi` makalesi size kapsamlı bir giriş sağlayabilir.
Sonuç olarak, "engellenen CSS/JS" uyarıları, bir sitenin dijital görünürlüğü için ciddi sonuçlar doğurabilir. Ancak doğru bilgi ve araçlarla, `robots.txt` ayarlarını optimize ederek bu sorunları kolayca giderebilir ve sitenizin arama motorları için tam anlamıyla erişilebilir olmasını sağlayabilirsiniz. Unutmayın, Googlebot bir web sayfasını ne kadar doğru render ederse, o sayfanın
SEO performansı da o kadar yüksek olur. Bu nedenle, `robots.txt` dosyanızın sitenizin dostu olduğundan emin olun, düşmanı değil.
Yazar: Ezgi Avcı
Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.