
Gereksiz CSS ve JS dosyalarını Googlebot'tan engellemek için robots.txt ayarları nasıl yapılır?
Modern web siteleri, etkileyici kullanıcı deneyimleri sunmak için giderek daha karmaşık hale gelen stil sayfaları (CSS) ve JavaScript (JS) dosyalarına bağımlıdır. Ancak, bu dosyaların hepsi Googlebot'un sitenizi anlaması veya dizine eklemesi için gerekli değildir. Aksine, bazı gereksiz CSS ve JS dosyaları, Googlebot'un değerli
Crawl Bütçesi'ni tüketerek ve hatta sitenizin ana içeriğine odaklanmasını engelleyerek olumsuz bir etki yaratabilir. Bir
SEO editörü olarak, bu durumu yönetmek ve
teknik SEO stratejilerinizin bir parçası olarak `robots.txt` dosyasını etkin bir şekilde kullanmak, sitenizin performansını ve dolaylı olarak
Google AdSense reklamlarınızın yayınlanma verimliliğini artırmanın anahtarıdır.
Bu makalede, sitenizin `robots.txt` dosyasını nasıl yapılandırarak Googlebot'un gereksiz CSS ve JS dosyalarını taramasını engelleyeceğinizi, böylece
site sağlığınızı nasıl iyileştirebileceğinizi ve arama motoru optimizasyonu çabalarınızı nasıl optimize edebileceğinizi ayrıntılı olarak inceleyeceğiz. Amacımız, Googlebot'un enerjisini en önemli içeriklerinize harcamasını sağlamak ve sitenizin arama sonuçlarında daha iyi bir görünürlük elde etmesine yardımcı olmaktır.
Neden Gereksiz CSS ve JS Dosyalarını Engellemeli?
Gereksiz CSS ve JS dosyalarını Googlebot'tan engellemenin birden fazla nedeni vardır ve bu nedenler doğrudan sitenizin arama motoru performansını ve kullanıcı deneyimini etkiler.
Crawl Bütçesi Optimizasyonu
Googlebot'un her web sitesi için ayırdığı belirli bir
Crawl Bütçesi vardır. Bu, Googlebot'un belirli bir zaman diliminde sitenizden tarayabileceği sayfa ve dosya sayısı anlamına gelir. Eğer Googlebot, sitenizde bulunan gereksiz stil dosyalarını veya komut dosyalarını taramakla meşgul olursa, bu bütçeyi önemli içeriklerinizden çalar. Örneğin, bir yönetici paneli için kullanılan CSS veya JS dosyaları, canlı site içeriğiyle doğrudan ilgili olmayan eski veya kullanılmayan tema dosyaları, Googlebot için tamamen anlamsızdır. Bu dosyaların taranmasını engelleyerek, botun enerjisini önemli blog yazılarınız, ürün sayfalarınız veya hizmet açıklamalarınız gibi temel içeriklerinize yönlendirebilirsiniz. Bu, sitenizin daha hızlı ve daha etkili bir şekilde dizine eklenmesine yardımcı olur. Daha fazla bilgi için crawl bütçesi optimizasyonu hakkında `/makale.php?sayfa=crawl-butcesi-optimzasyonu` adresindeki makalemizi inceleyebilirsiniz.
Sunucu Kaynaklarının Verimli Kullanımı
Her tarama isteği, sitenizin sunucusundan belirli bir kaynak tüketir. Googlebot'un binlerce gereksiz dosyayı taraması, sunucunuz üzerinde gereksiz bir yük oluşturabilir. Bu durum, özellikle yoğun trafik alan veya paylaşımlı barındırma hizmeti kullanan siteler için sorun teşkil edebilir. Sunucu kaynaklarının gereksiz yere kullanılması, sitenizin genel performansını düşürebilir ve hatta sitenizin yavaşlamasına veya tamamen erişilemez hale gelmesine neden olabilir. `robots.txt` ile engelleme yaparak sunucu kaynaklarınızı daha verimli kullanabilir ve sitenizin daha kararlı çalışmasını sağlayabilirsiniz.
Odaklanma ve Anlaşılabilirlik
Googlebot'un sitenizi nasıl gördüğü, arama sıralamanız için kritik öneme sahiptir. Botun, sitenizin yapısını ve içeriğini net bir şekilde anlaması gerekir. Eğer bot, çok sayıda alakasız dosya arasında kaybolursa, sitenizin ana içeriğine ve görsel sunumuna odaklanmakta zorlanabilir. Gereksiz dosyaları engellemek, Googlebot'un sitenizin ana mesajına ve kullanıcılar için önemli olan bölümlerine daha hızlı ulaşmasını sağlar. Bu sayede, sitenizin arama motorları tarafından daha doğru bir şekilde değerlendirilmesine yardımcı olursunuz.
Robots.txt Kullanımında Dikkat Edilmesi Gerekenler
Gereksiz CSS ve JS dosyalarını engellemek iyi bir strateji olsa da, bu konuda çok dikkatli olmak gerekmektedir. Yanlış bir `robots.txt` yapılandırması, sitenizin arama motoru görünürlüğüne ciddi zararlar verebilir.
Kritik Render Dosyalarını Engellemeyin!
Bu, `robots.txt` kullanırken akılda tutulması gereken en önemli kuraldır. Google, bir web sayfasını kullanıcıların gördüğü şekilde render etmek için gerekli olan tüm CSS ve JS dosyalarına erişebilmelidir. Google'ın mobil öncelikli indeksleme politikası, bir sayfanın mobil cihazlarda nasıl göründüğüne büyük önem verir. Eğer sitenizin görünümünü veya işlevselliğini doğrudan etkileyen kritik CSS veya JS dosyalarını engellerseniz, Googlebot sayfayı doğru bir şekilde render edemez. Bu durum, sayfanızın arama sonuçlarında kötü performans göstermesine, hatta bazı durumlarda hiç dizine eklenmemesine neden olabilir.
Örneğin, responsive tasarımı sağlayan bir CSS dosyası veya menü navigasyonunu çalıştıran bir JavaScript dosyası asla engellenmemelidir.
Web yöneticileri, bu ayrımı yaparken Google Search Console'daki URL Denetleme aracını kullanarak bir sayfanın Google tarafından nasıl görüntülendiğini kontrol etmelidir.
Hangi Dosyalar "Gereksiz" Kabul Edilebilir?
"Gereksiz" olarak kabul edilebilecek dosyalar genellikle şunlardır:
*
Yönetici Paneli Dosyaları: Web sitenizin genel içeriğiyle alakası olmayan, sadece yönetim arayüzü için kullanılan CSS/JS dosyaları.
*
Eski veya Kullanılmayan Tema/Eklenti Dosyaları: Sitenizde yüklü ancak aktif olarak kullanılmayan eski temalara veya pasif eklentilere ait dosyalar.
*
Geliştirici veya Hata Ayıklama Komut Dosyaları: Canlı kullanıcılar için gerekli olmayan, sadece geliştirme sürecinde kullanılan JS dosyaları.
*
Test Ortamı Dosyaları: Test veya staging ortamınızda kullanılan ve canlı siteye yanlışlıkla sızmış dosyalar.
*
Özel Yazılımların Geçici Dosyaları: Bazı özel yazılımların oluşturduğu, sadece iç süreçlerde kullanılan geçici veya log dosyaları.
Google AdSense reklamlarının doğru bir şekilde gösterilebilmesi ve gelirinizin etkilenmemesi için, reklam birimlerinin doğru yüklenmesini sağlayan veya sayfanın genel düzenini bozmayacak kritik CSS ve JS dosyalarının kesinlikle engellenmemesi gerektiğini unutmayın. Aksi takdirde, reklamlarınız doğru yerleşmeyebilir veya hiç görünmeyebilir, bu da gelir kaybına yol açar.
Robots.txt ile Engelleme Yöntemleri
`robots.txt` dosyası, sitenizin kök dizininde bulunan basit bir metin dosyasıdır. Bu dosya, Googlebot gibi tarayıcıların sitenizin hangi bölümlerini tarayabileceğini veya tarayamayacağını belirten kurallar içerir. İşte gereksiz CSS ve JS dosyalarını engellemek için kullanabileceğiniz yaygın yöntemler:
Belirli Dosyaları Engellemek
Eğer belirli bir CSS veya JS dosyasının gereksiz olduğunu biliyorsanız, bu dosyayı doğrudan `Disallow` direktifiyle engelleyebilirsiniz.
```
User-agent: Googlebot
Disallow: /wp-content/plugins/some-unused-plugin/css/style.css
Disallow: /js/admin-scripts.js
Disallow: /assets/old-theme/legacy.min.css
```
Bu örneklerde, `/wp-content/plugins/some-unused-plugin/css/style.css`, `/js/admin-scripts.js` ve `/assets/old-theme/legacy.min.css` yollarındaki dosyalar Googlebot tarafından taranmayacaktır. Tam yolu belirterek yalnızca o spesifik dosyayı hedef alırsınız.
Tüm Dizinleri veya Belirli Tipleri Engellemek
Bazı durumlarda, bir dizinin tamamının veya bir dizin içindeki belirli dosya türlerinin gereksiz olduğunu düşünebilirsiniz.
#### Belirli Bir Dizini Engellemek
Eğer bir dizinin tamamının (örneğin, yalnızca geliştiriciler için olan bir "dev" klasörü) taranmasını istemiyorsanız, o dizini engelleyebilirsiniz:
```
User-agent: Googlebot
Disallow: /dev/
Disallow: /old-assets/
```
Bu kurallar, `/dev/` ve `/old-assets/` dizinlerinin altındaki tüm dosyaları ve alt dizinleri Googlebot'un erişimine kapatır.
#### Dizin İçindeki Belirli Dosya Türlerini Engellemek
Joker karakter (`*`) kullanarak bir dizin içindeki belirli dosya türlerini (örneğin, sadece `.css` veya `.js` uzantılı dosyaları) engelleyebilirsiniz. Ancak, bunu yaparken çok dikkatli olun! Genellikle tüm `.css` veya `.js` dosyalarını engellemek kötü bir fikirdir çünkü kritik dosyaları da engellemiş olursunuz. Bu yöntem, yalnızca çok özel ve sınırlı senaryolarda kullanılmalıdır, örneğin belirli bir "eski" veya "admin" klasörü içinde.
```
User-agent: Googlebot
Disallow: /wp-content/themes/old-theme/*.css
Disallow: /js/legacy-scripts/*.js
```
Yukarıdaki örnekler, `/wp-content/themes/old-theme/` dizini içindeki tüm CSS dosyalarını ve `/js/legacy-scripts/` dizini içindeki tüm JS dosyalarını engeller. Bu, özellikle kullanılmayan veya eskimiş bir tema dizininin veya eski komut dosyalarının bulunduğu bir klasörün tamamen temizlenmesi yerine belirli dosya türlerini hedeflemek istediğinizde faydalı olabilir.
Genel Engellemelerden Kaçınma
Asla `Disallow: *.css` veya `Disallow: *.js` gibi genel engellemeler kullanmamalısınız. Bu, sitenizdeki tüm CSS ve JS dosyalarını engeller, bu da Googlebot'un sitenizi doğru bir şekilde render etmesini imkansız hale getirir ve ciddi
SEO sorunlarına yol açar. Her zaman belirli dosyalara veya çok spesifik dizinlere odaklanarak engelleme yapın. Unutmayın, amacımız gereksizleri ayıklamak, gerekli olanları değil.
Bu `robots.txt` ayarlarını manuel olarak düzenleyebileceğiniz gibi, bazı platformlar veya araçlar aracılığıyla kolayca yönetebilirsiniz. Eğer bu konuda yardıma ihtiyacınız olursa,
Robots.txt Üretici araçları size doğru syntax'ı oluşturmanızda yardımcı olabilir.
Engelleme Sonrası Yapılması Gerekenler
`robots.txt` dosyanızda değişiklikler yaptıktan sonra, bu değişikliklerin sitenizi nasıl etkilediğini kontrol etmek hayati öneme sahiptir. Bu adım, potansiyel hataları erken aşamada tespit etmenizi ve düzeltmenizi sağlar.
Google Search Console Kullanımı
Google Search Console,
web yöneticileri için paha biçilmez bir araçtır.
*
Robots.txt Test Aracı: Search Console'da bulunan "Robots.txt Test Aracı"nı kullanarak yaptığınız değişikliklerin geçerli olup olmadığını ve beklediğiniz gibi çalışıp çalışmadığını kontrol edebilirsiniz. Bu araç, belirli bir URL'yi veya dosyayı girerek Googlebot'un bu dosyaya erişiminin `robots.txt` tarafından engellenip engellenmediğini gösterir. Bu, yanlışlıkla kritik dosyaları engellemediğinizden emin olmanın ilk adımıdır.
*
URL Denetleme Aracı: Engellediğiniz dosyaların sayfa render etme sürecini etkileyip etkilemediğini görmek için "URL Denetleme Aracı"nı kullanın. Önemli bir sayfanızın URL'sini girin, "Dizine Eklenmiş Sürümü Görüntüle" veya "Canlı Test" seçeneğini kullanarak Google'ın sayfayı nasıl gördüğünü ve render ettiğini inceleyin. Eğer kritik bir CSS veya JS dosyasını engellediyseniz, render edilen sayfa bozuk görünecek veya işlevselliğini yitirmiş olacaktır. Bu durumda, `robots.txt` dosyanızı hemen revize etmeniz gerekir.
Log Analizi (İleri Düzey Kullanıcılar İçin)
Daha ileri düzey
web yöneticileri, sunucu erişim günlüklerini (access logs) analiz ederek Googlebot'un hangi dosyalara erişmeye çalıştığını ve hangi dosyaların `robots.txt` tarafından başarıyla engellendiğini doğrulayabilir. Bu,
Crawl Bütçesi optimizasyonunuzun gerçekten işe yarayıp yaramadığını somut verilerle görmenizi sağlar. Engellediğiniz dosyalar için artık Googlebot'tan istek gelmediğini görmelisiniz.
Performans İzleme
`robots.txt` değişikliklerinden sonra sitenizin genel performansını izlemeye devam edin. Sayfa yükleme hızında (Google PageSpeed Insights gibi araçlarla) bir iyileşme olup olmadığını kontrol edin. Her ne kadar `robots.txt` doğrudan sayfa yükleme hızını etkilemese de, crawl bütçesi optimizasyonu dolaylı olarak sitenizin sunucu yanıt sürelerini ve genel
site sağlığını olumlu etkileyebilir.
Sonuç
Gereksiz CSS ve JS dosyalarını `robots.txt` ile Googlebot'tan engellemek, sitenizin
teknik SEO stratejisinin önemli bir parçasıdır. Bu uygulama, Googlebot'un
Crawl Bütçesi'ni daha verimli kullanmasını sağlayarak, sunucu kaynaklarınızı optimize ederek ve en önemlisi, sitenizin ana içeriğine odaklanmasını sağlayarak arama motoru görünürlüğünüzü artırabilir. Ancak, bu işlemi yaparken kritik render dosyalarını engellememeye azami özen göstermelisiniz. Yanlış bir engelleme, sitenizin arama sonuçlarında görünürlüğünü olumsuz etkileyebilir ve
Google AdSense reklamlarınızın performansına zarar verebilir.
Doğru uygulandığında, `robots.txt` dosyası,
web yöneticileri ve
SEO uzmanları için güçlü bir araç haline gelir. Sitenizi düzenli olarak analiz ederek, gereksiz dosyaları belirleyerek ve `robots.txt` dosyanızı dikkatlice yapılandırarak, sitenizin arama motorlarındaki performansını sürekli olarak iyileştirebilir ve çevrimiçi varlığınızın tam potansiyeline ulaşmasını sağlayabilirsiniz. Unutmayın, her zaman önce test edin ve değişikliklerinizi Google Search Console üzerinden doğrulayın.
Yazar: Ezgi Avcı
Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.