
CSS ve JS dosyalarınızı robots.txt üretici ile yanlışlıkla engellemekten nasıl kurtulursunuz?
Web siteleri için arama motoru optimizasyonu (SEO), başarılı bir dijital varlığın temel direklerinden biridir. Bu optimizasyon sürecinde, sitenizin arama motorları tarafından doğru şekilde taranabilir ve dizine eklenebilir olmasını sağlamak kritik önem taşır. Ancak ne yazık ki, bazen iyi niyetle yapılan değişiklikler, farkında olmadan sitenizin performansını olumsuz etkileyebilir. Özellikle
robots.txt dosyası, arama motoru botlarına sitenizdeki hangi sayfaları veya dizinleri taramaları gerektiğini bildiren güçlü bir araçtır. Bu gücün yanlış kullanılması, özellikle de sitenizin görünümünü ve işlevselliğini sağlayan
CSS ve JS dosyaları gibi kritik kaynakları engellemek, ciddi sonuçlara yol açabilir. Bu makalede, bu tür yanlış engellemelerden nasıl kurtulacağınızı ve gelecekte nasıl önleyeceğinizi detaylı bir şekilde inceleyeceğiz.
Web sitenizdeki
CSS (Cascading Style Sheets) ve JS (JavaScript) dosyaları, kullanıcıların sitenizle etkileşim kurma biçimini ve sitenizin görsel çekiciliğini doğrudan belirler.
Googlebot gibi arama motoru botları, bir web sayfasını insanlar gibi deneyimlemeye çalışır. Bu, sayfanın nasıl göründüğünü ve nasıl davrandığını anlamak için CSS ve JS dosyalarını taramaları gerektiği anlamına gelir. Bu dosyaların engellenmesi, botların sayfanızı "çıplak" veya işlevsiz bir halde görmesine neden olur. Bu durum, sayfanızın tasarımının bozuk görünmesine, bazı interaktif öğelerin çalışmamasına ve dolayısıyla kullanıcı deneyiminin (UX) olumsuz etkilenmesine yol açar. Sonuç olarak, arama motorları sitenizi düşük kaliteli veya güvenilmez olarak algılayabilir, bu da sıralamalarınızı düşürebilir ve sitenizin
SEO performansını ciddi şekilde zedeleyebilir. Ayrıca, Google AdSense kullanan yayıncılar için bu durum, reklamların yanlış yerleşmesine veya hiç görünmemesine neden olarak gelir kaybına bile yol açabilir.
Robots.txt Dosyasının Rolü ve Yanlış Kullanımın Tehlikeleri
Robots.txt dosyası, bir web sitesinin kök dizininde bulunan ve arama motoru örümceklerine (botlarına) sitenin hangi bölümlerini tarayabileceklerini veya tarayamayacaklarını bildiren basit bir metin dosyasıdır. Bu dosyanın temel amacı, sunucu yükünü azaltmak, gereksiz sayfaların dizine eklenmesini önlemek (örneğin, yönetici panelleri veya test sayfaları) ve genel
tarama bütçesi yönetimini optimize etmektir. Doğru kullanıldığında, sitenizin arama motorları tarafından daha verimli bir şekilde işlenmesine yardımcı olur.
Robots.txt Nedir ve Ne İşe Yarar?
Robots.txt dosyası, web sitenizin arama motorlarıyla "iletişim kurma" biçimidir. `User-agent` direktifiyle hangi botlara yönelik kural belirlediğinizi gösterirsiniz (örneğin, `User-agent: *` tüm botlar için geçerlidir). Ardından `Disallow:` direktifiyle botların hangi dizinlere veya dosyalara erişemeyeceğini belirtirsiniz. Örneğin, `Disallow: /wp-admin/` WordPress yönetici paneline erişimi engeller. `Allow:` direktifi ise daha geniş bir engelleme içindeki belirli bir kaynağa izin vermek için kullanılır. Bu basit komutlar, bir web sitesinin arama motoru görünürlüğünü derinden etkileyebilir.
Yanlışlıkla tüm CSS ve JS dosyalarını engellemek, genellikle şu senaryolardan birinde ortaya çıkar:
1.
Robots.txt üretici araçlarını kullanırken yanlış yapılandırma.
2. Geliştiricinin tüm "statik" dosyaları veya belirli "asset" dizinlerini engellemeye karar vermesi.
3. Bir web sitesinin geliştirme aşamasında her şeyi engellemek ve canlıya geçerken bunu düzeltmeyi unutmak.
4. Eklentilerin veya temaların otomatik olarak yanlış kurallar eklemesi.
Daha fazla bilgi için
robots.txt nedir başlıklı makalemizi okuyabilirsiniz.
CSS ve JS Dosyalarını Neden Engellememelisiniz?
Günümüz web siteleri, zengin görsel tasarımlar ve etkileşimli özelliklerle doludur. Bu özelliklerin arkasındaki anahtar teknolojiler
CSS ve JavaScript'tir.
*
CSS: Sitenizin renklerini, yazı tiplerini, düzenini ve genel estetiğini tanımlar.
*
JavaScript: Animasyonlar, açılır menüler, form doğrulamaları ve diğer dinamik işlevler gibi etkileşimli öğeleri sağlar.
Googlebot, bir sayfayı dizine eklemeden önce onu "oluşturmaya" (render etmeye) çalışır. Bu, tıpkı bir insan tarayıcıda sayfayı açtığında olduğu gibi,
CSS ve JS dosyaları kullanılarak sayfanın nihai halini görmesi anlamına gelir. Eğer bu dosyalar
robots.txt tarafından engellenirse,
Googlebot sayfanızı şu şekilde görür:
*
Biçimlendirilmemiş Metin: CSS olmadan, sayfadaki tüm öğeler genellikle alt alta, temel HTML yapısında görünür. Bu, sayfanın amacını ve kalitesini anlamayı zorlaştırır.
*
İşlevsiz Öğeler: JavaScript olmadan, formlar çalışmayabilir, etkileşimli galeriler yüklenmeyebilir veya belirli düğmeler yanıt vermeyebilir. Bu, sitenizin içeriğinin bir kısmının
Googlebot tarafından hiç görülmemesine veya deneyimlenmemesine yol açabilir.
Bu durum, doğrudan kullanıcı deneyimini etkilediği için
SEO performansınıza ciddi zararlar verir.
Googlebot, kötü bir kullanıcı deneyimi sunan veya içeriği düzgün şekilde gösteremeyen sayfaları düşük değerli olarak işaretleyebilir. Ayrıca,
AdSense reklamları genellikle JavaScript kullanarak sayfaya yüklenir ve CSS kurallarına göre yerleştirilir. Eğer bu dosyalar engellenirse, reklamlar hiç görünmeyebilir, yanlış yerleşebilir veya sayfanın düzenini bozarak kötü bir kullanıcı deneyimine yol açabilir. Bu da
AdSense gelirlerinizin düşmesine ve hatta Google'ın politikalarını ihlal ettiğiniz gerekçesiyle sitenizin reklam gösterme yeteneğinin askıya alınmasına neden olabilir.
Yanlışlıkla Engellemenin Belirtileri ve Tespiti
Yanlışlıkla yapılan engellemeler çoğu zaman fark edilmeyebilir, özellikle de sitenizde büyük çaplı değişiklikler yapıldıktan sonra. Ancak bu tür bir sorunu tespit etmek için kullanabileceğiniz bazı araçlar ve yöntemler bulunmaktadır.
Google Search Console ile Tanımlama
Google Search Console (GSC), web sitenizin Google arama sonuçlarındaki performansını izlemenize ve sorunları gidermenize yardımcı olan ücretsiz bir araçtır.
*
URL Denetleme Aracı: Bu araç, belirli bir URL'yi Google'ın nasıl gördüğünü size gösterir. Bir sayfanın URL'sini girerek, Google'ın sayfanızı nasıl taradığını, dizine eklediğini ve oluşturduğunu (render ettiğini) görebilirsiniz. Eğer
CSS ve JS dosyaları engelleniyorsa, "Oluşturulan Sayfa" bölümünde sayfanızın biçimlendirilmemiş veya eksik göründüğünü fark edersiniz. Ayrıca, "Tarama" bölümünde "Sayfa kaynağında engellenen kaynaklar" başlığı altında engellenen kaynakları görebilirsiniz.
*
Kapsam Raporları: GSC'deki kapsam raporları, sitenizdeki taranabilir veya dizine eklenebilir sorunları gösterir. Bazen "Engellendi: robots.txt" veya "Kapsam dışı: Sayfa işleme sorunları" gibi hatalar görebilirsiniz. Bu hatalar, Google'ın sitenizi tam olarak işleyemediğini ve bunun nedeninin engellenen kaynaklar olabileceğini gösterir.
*
Mobil Uyumluluk Testi: Mobil uyumluluk, Google sıralamaları için giderek daha önemli hale gelmektedir. GSC'deki mobil uyumluluk aracı, sayfanızın mobil cihazlarda nasıl performans gösterdiğini test eder. Engellenen
CSS veya JS, mobil uyumluluk sorunlarına yol açabilir ve bu testte hata olarak görünebilir.
Tarayıcı Geliştirici Araçlarını Kullanma
Modern web tarayıcıları (Chrome, Firefox, Edge vb.) geliştiricilere yönelik güçlü araçlar sunar. Bu araçları kullanarak sitenizdeki sorunları yerel olarak teşhis edebilirsiniz:
*
Konsol (Console): Tarayıcınızın geliştirici araçlarındaki konsol bölümü, JavaScript hatalarını veya yüklenemeyen kaynakları (CSS veya JS dosyaları dahil) gösterir. Engellenen bir dosya, genellikle "403 Forbidden" veya "404 Not Found" gibi bir HTTP durum koduyla birlikte bir hata olarak görünür.
*
Ağ (Network): Ağ sekmesi, sayfanız yüklenirken tarayıcının yaptığı tüm istekleri listeler. Burada, yüklenemeyen
CSS ve JS dosyalarını kırmızı renkte veya bir hata koduyla (örneğin, 403 veya robots.txt tarafından engellendiği için boş yanıt) görebilirsiniz. Bu, hangi dosyaların soruna neden olduğunu kesin olarak belirlemenize yardımcı olur.
*
Öğeler (Elements): Bu sekme, sayfanın HTML yapısını ve uygulanan CSS stillerini gösterir. Eğer CSS engelleniyorsa, burada beklenen stillerin uygulanmadığını ve genellikle varsayılan tarayıcı stillerinin kullanıldığını görürsünüz.
Bu araçları düzenli olarak kullanmak, sitenizdeki gizli sorunları erkenden tespit etmenize ve
SEO ve
AdSense performansınızı korumanıza yardımcı olabilir.
Robots.txt Dosyanızı Doğru Şekilde Yapılandırma
Doğru
robots.txt yapılandırması, sitenizin arama motorları tarafından etkin bir şekilde taranmasını sağlarken, aynı zamanda sunucu kaynaklarınızı korur. Önemli olan, gerekli olan her şeye izin verirken sadece gerçekten engellenmesi gereken şeyleri engellemektir.
CSS ve JS Dosyalarına İzin Verme (Disallow'dan Kaçınma)
Genel bir kural olarak, sitenizin kullanıcıya sunulan bölümünü oluşturan tüm
CSS ve JS dosyalarına tam erişim izni vermelisiniz. Çoğu durumda, bir `Disallow` kuralı belirtmediğiniz sürece arama motorları bu dosyalara varsayılan olarak erişebilir. Ancak, bazı web yöneticileri veya otomatik
Robots.txt üretici araçları, tüm "statik" dosyaları veya "assets" dizinlerini genel bir `Disallow` kuralıyla engelleme hatasına düşebilir.
Örneğin, aşağıdaki gibi bir kural, sitenizdeki tüm CSS ve JS dosyalarını engelleyebilir:
```
User-agent: *
Disallow: /wp-content/
```
Bu örnekte, WordPress kullanıcıları için `/wp-content/` dizini genellikle tüm temaların, eklentilerin, yüklemelerin ve evet, CSS ve JS dosyalarının bulunduğu yerdir. Bu direktif, Googlebot'un bu dizindeki hiçbir şeye erişemeyeceği anlamına gelir, bu da sitenizin tamamen bozuk görünmesine neden olur.
Doğru yaklaşım, genellikle aşağıdaki gibi bir yapıyı korumaktır:
```
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://www.siteadi.com/sitemap_index.xml
```
Bu yapı, yalnızca yönetici paneli gibi hassas veya alakasız bölümleri engellerken, diğer her şeye (CSS ve JS dosyaları dahil) varsayılan olarak izin verir. Eğer belirli bir sebepten dolayı geniş bir `Disallow` kuralınız varsa (örneğin, `Disallow: /assets/`), ancak bu dizin içinde
CSS ve JS dosyalarınız varsa, `Allow` direktifini kullanarak bu spesifik dosyalara izin verebilirsiniz:
```
User-agent: *
Disallow: /assets/
Allow: /assets/*.css
Allow: /assets/*.js
```
Bu, `assets` klasöründeki her şeyi engellerken, CSS ve JS dosyalarına özel olarak izin verir. Ancak en iyi uygulama, yalnızca gerçekten engellemeniz gereken şeyleri engellemektir. Varsayılan olarak izin vermek her zaman daha güvenli bir yaklaşımdır.
Yaygın Hatalardan Kaçınmak İçin İpuçları
Robots.txt dosyanızı yönetirken yapabileceğiniz bazı yaygın hatalardan kaçınmak, sitenizin sağlığı için hayati öneme sahiptir:
*
Sitenin Tamamını Engellemekten Kaçının: Geçici olarak `Disallow: /` kuralı eklemek, sitenizin arama sonuçlarından tamamen kaybolmasına neden olur. Bu hatayı genellikle "canlıya geçiş öncesi" durumunda veya panik anında yapmayın.
*
robots.txt Dosyasını Sık Sık Kontrol Edin: Tema güncellemeleri, eklenti kurulumları veya web sitesi geçişleri bazen robots.txt dosyanızı değiştirebilir. Bu değişiklikleri düzenli olarak kontrol etmek, istenmeyen engellemelerin önüne geçer.
*
Hosting veya CDN Geçişlerinde Dikkatli Olun: Yeni bir hosting sağlayıcısına geçerken veya bir İçerik Dağıtım Ağı (CDN) kullanmaya başlarken,
robots.txt dosyanızın doğru şekilde yapılandırıldığından emin olun. Bazen CDN'ler kendi robots.txt kurallarını uygulayabilir veya sitenizin mevcut
robots.txt dosyasını yanlış yorumlayabilir.
*
Tema veya Eklenti Güncellemelerinden Sonra Kontrol: Özellikle
Robots.txt üretici özellikli SEO eklentileri (Yoast SEO, Rank Math vb.) robots.txt dosyanızı otomatik olarak düzenleyebilir. Bu tür güncellemelerden sonra değişiklikleri gözden geçirmek önemlidir.
*
robots.txt ve Noindex Etiketlerini Karıştırmayın: robots.txt, bir sayfanın taranmasını engellerken, `noindex` meta etiketi veya HTTP üst bilgisi bir sayfanın dizine eklenmesini engeller. Her ikisi de farklı amaçlara hizmet eder ve yanlış kullanıldığında sorunlara yol açabilir. Engellenen bir sayfayı `noindex` yapmak mümkün değildir, çünkü botlar
robots.txt nedeniyle `noindex` etiketini göremez.
Bu ipuçlarına dikkat ederek, sitenizin arama motorları tarafından doğru şekilde işlenmesini sağlayabilir ve hem
SEO performansınızı hem de
AdSense gelirlerinizi koruyabilirsiniz.
Sorunları Düzeltme ve Gelecekte Önleme Stratejileri
Yanlışlıkla CSS ve JS dosyalarını engellediğinizi fark ettiğinizde paniklemeyin. Bu durum düzeltilebilir ve gelecekte benzer hataları önlemek için proaktif adımlar atılabilir.
Robots.txt Dosyanızı Güncelleme
Sorunu çözmenin ilk adımı,
robots.txt dosyanızı doğru şekilde güncellemektir.
1.
Robots.txt Dosyasını Bulun: Çoğu web sitesinde, robots.txt dosyası sitenizin kök dizininde bulunur. Yani `www.siteadi.com/robots.txt` adresinden erişilebilir.
2.
Engellenen Direktifleri Kaldırma/Düzeltme: Bir FTP istemcisi veya hosting panelinizin dosya yöneticisi aracılığıyla dosyayı indirin. Tüm
CSS ve JS dosyalarını veya onları içeren dizinleri (örneğin `/wp-content/`, `/assets/`, `/static/`) engelleyen `Disallow` kurallarını dikkatlice inceleyin. Bu kuralları ya kaldırın ya da özellikle CSS ve JS'ye izin veren `Allow` direktifleri ekleyin. Eğer bir
Robots.txt üretici aracı kullanıyorsanız, aracın arayüzünden bu değişiklikleri yapın.
3.
Değişiklikleri Kaydetme ve Yükleme: Dosyayı güncelledikten sonra kaydedin ve sunucunuza geri yükleyin.
Dosyayı düzenlerken çok dikkatli olun; küçük bir hata bile sitenizin arama motorları tarafından tamamen engellenmesine yol açabilir. Emin değilseniz, dosyayı değiştirmeden önce bir yedeğini alın.
Google Search Console'da Doğrulama ve Yeniden Tarama İsteği
Robots.txt dosyanızı güncelledikten sonra, değişikliklerin Google tarafından tanındığından emin olmanız gerekir.
1.
Google Search Console Robots.txt Test Aracı: GSC'de (eski sürümünde bulunan)
Robots.txt Test Aracı'nı kullanarak yeni dosyanızı test edebilirsiniz. Bu araç, dosyanızdaki hataları size gösterecek ve belirli bir URL için tarayıcının engellenip engellenmediğini doğrulamanıza olanak tanıyacaktır. (Yeni GSC arayüzünde bu araç doğrudan bulunmasa da, URL Denetimi ile robots.txt kaynaklı engellemeleri görebilirsiniz.)
2.
URL Denetimi ile Test Etme: Değişiklikleri yaptıktan sonra, daha önce sorunlu olarak tespit ettiğiniz bir sayfanın URL'sini GSC'deki URL Denetim aracına girin. "Canlı URL'yi Test Et" seçeneğini kullanarak Google'ın şu anki robots.txt dosyanızla bu sayfayı nasıl gördüğünü kontrol edin. Artık
CSS ve JS dosyalarının düzgün bir şekilde yüklendiğini görmelisiniz.
3.
Yeniden Tarama İsteği: Gerekirse, düzeltilen sayfanız için yeniden tarama isteğinde bulunarak Google'ın değişiklikleri daha hızlı fark etmesini sağlayabilirsiniz. Bu, özellikle kritik sayfalar veya sitenizin ana sayfası için önemlidir. Ayrıca, sitenizin sitemap'ini (site haritası) tekrar göndererek Google'a tüm sitenizdeki güncellemeleri bildirebilirsiniz.
Periyodik Kontroller ve İyi Uygulamalar
Gelecekte benzer sorunlardan kaçınmak için düzenli kontroller ve iyi uygulamalar benimsemek önemlidir.
*
Düzenli olarak SEO Denetimleri Yapın: Sitenizdeki teknik
SEO sorunlarını tespit etmek için düzenli olarak denetimler yapın. Bu denetimler,
robots.txt dosyasının doğru yapılandırıldığından emin olmayı ve Google Search Console'daki hataları kontrol etmeyi içermelidir.
*
Geliştirici veya Webmaster ile İletişimde Kalın: Eğer bir geliştirici veya ajans sitenizi yönetiyorsa, onlarla açık iletişim kurun. Herhangi bir büyük değişiklik yapıldığında (tema değişimi, eklenti kurulumu, CDN entegrasyonu vb.)
robots.txt dosyasının ve genel tarama ayarlarının gözden geçirilmesini talep edin.
*
AdSense Politikalarına Uygunluk İçin Sayfa Düzenini Optimize Edin: AdSense politikalarına uygunluk için reklamların düzgün bir şekilde yerleştiğinden ve kullanıcı deneyimini bozmadığından emin olun.
CSS ve JS dosyalarının engellenmesi, reklamların yanlış görüntülenmesine ve bu politikaların ihlal edilmesine neden olabilir. Reklam yerleşimi ve genel sayfa düzeni konusunda daha fazla bilgi için
AdSense politikalarına uygunluk konusundaki rehberimizi inceleyebilirsiniz.
*
Yedeklemeler Yapın: Önemli dosyalarınızın, özellikle
robots.txt dosyanızın düzenli yedeklerini tutun. Bu, yanlışlıkla yapılan bir değişiklik durumunda hızlıca geri dönmenizi sağlar.
Sonuç olarak,
robots.txt dosyası, sitenizin arama motorlarıyla ilişkisini şekillendiren güçlü bir araçtır.
CSS ve JS dosyalarının yanlışlıkla engellenmesi, sitenizin
SEO performansına, kullanıcı deneyimine ve hatta
AdSense gelirlerinize zarar verebilecek yaygın bir hatadır. Bu makalede açıklanan adımları izleyerek, bu tür engellemeleri tespit edebilir, düzeltebilir ve gelecekte önleyebilirsiniz. Unutmayın, sitenizin arama motorları tarafından doğru bir şekilde taranması ve dizine eklenmesi, çevrimiçi başarınız için temel bir adımdır. Doğru
Robots.txt üretici kullanımı ve sürekli dikkat, sitenizin sağlıklı kalmasını ve dijital dünyada başarılı olmasını sağlayacaktır.
Yazar: Ezgi Avcı
Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.