Arama Motoru Optimizasyonunuzu Kolaylaştırın.
Google AdSense politikaları konusunda uzman bir SEO editörü olarak, e-ticaret sitelerinin karşılaştığı en büyük zorluklardan birinin, doğru sayfaların indekslemesini sağlamak ve arama motoru sonuçlarında görünürlük elde etmek olduğunu biliyorum. Bu süreçte kritik bir rol oynayan araçlardan biri de robots.txt dosyasıdır. Bu dosya, arama motorları örümceklerinin sitenizi nasıl tarayacağını yönlendiren basit ama güçlü bir metin dosyasıdır. Doğru yapılandırıldığında, sitenizin SEO performansını doğrudan etkiler, gereksiz sayfaların indekslenmesini engelleyerek "düşük değerli içerik" reddi riskini azaltır ve tarama bütçesinizi en verimli şekilde kullanmanıza yardımcı olur.
Bu kapsamlı rehberde, bir e-ticaret sitesi için neden `robots.txt` dosyasının hayati olduğunu açıklayacak, kritik sayfaların indekslenmesini garantilerken, değersiz veya yinelenen içeriğe sahip sayfaların taramasını nasıl engelleyeceğinizi adım adım göstereceğim. Amacımız, sitenizin arama motorları için mümkün olduğunca temiz ve etkili olmasını sağlayarak, organik trafik potansiyelinizi maksimize etmektir.
`robots.txt` dosyası, web sitenizin kök dizininde bulunan ve `www.siteniz.com/robots.txt` adresinden erişilebilen düz metin bir dosyadır. Temel amacı, arama motoru botlarına (örümceklerine) sitenizin hangi bölümlerini tarayabileceklerini ve hangi bölümlerini tarayamayacaklarını bildirmektir. Ancak, bu bir "direktif"tir, bir "komut" değil. Botlar genellikle bu direktiflere uysa da, kötü niyetli botlar veya bazı nadir durumlarda iyi niyetli botlar bile bu kuralları göz ardı edebilir. Bu nedenle, hassas bilgileri korumak için tek başına `robots.txt` yeterli değildir; bunun yerine, bir güvenlik katmanı olarak düşünülmelidir.
E-ticaret siteleri için `robots.txt`'nin önemi katlanarak artar:
1. Tarama Bütçesi Yönetimi: E-ticaret siteleri genellikle binlerce, hatta milyonlarca ürüne ve kategoriye sahiptir. Ayrıca, filtreleme, sıralama, sepet, ödeme gibi birçok dinamik ve parametreli URL oluşturabilirler. Arama motorlarının sitenizi taramak için belirli bir "tarama bütçesi" vardır. Bu bütçe, sitenizin büyüklüğüne, otoritesine ve güncellenme sıklığına göre değişir. `robots.txt` ile değersiz veya yinelenen içeriğe sahip sayfaların taranmasını engelleyerek, botların bu bütçeyi gerçekten önemli olan kritik ürün ve kategori sayfalarınıza odaklamasını sağlarsınız. Bu, e-ticaret SEO başarısı için kritik bir adımdır.
2. Kopya İçerik Sorunlarını Önleme: E-ticaret siteleri, ürün varyasyonları, filtreleme parametreleri, sıralama seçenekleri veya aynı ürünün farklı URL'lerde gösterilmesi gibi nedenlerle kolayca kopya içerik sorunları yaşayabilir. `robots.txt` ile bu tür URL'lerin taranmasını engelleyerek, Google'ın sitenizi düşük değerli içerik olarak algılamasını engellemiş olursunuz. Kopya içerik, sitenizin genel otoritesini zayıflatabilir ve sıralamalarınızı olumsuz etkileyebilir.
3. Kullanıcı Deneyimi ve Hız: Botların gereksiz sayfaları taramasını engellemek, sunucu yükünü azaltmaya yardımcı olabilir. Bu, sitenizin genel performansını artırarak hem kullanıcı deneyimini hem de dolaylı olarak SEO'yu olumlu etkiler.
4. Hassas Sayfaların Görünürlüğünü Engelleme: Yönetici panelleri, test ortamları, dahili arama sonuçları gibi kullanıcıların veya arama motorlarının görmesini istemediğiniz sayfaların arama sonuçlarında görünmesini engellemek için kullanılır.
`Robots.txt` ve sitemap dosyası arasındaki ilişki de önemlidir. `robots.txt` arama motorlarına "nereye gitmemelisin" derken, sitemap "gitmek isteyeceğin tüm önemli sayfalar burada" der. İkisi birbiriyle uyumlu çalışmalı ve sitenizin tam bir resmini sunmalıdır.
Bir `robots.txt` dosyası birkaç temel direktiften oluşur:
* `User-agent`: Bu direktif, kuralın hangi arama motoru botu için geçerli olduğunu belirtir.
* `User-agent: *` : Tüm arama motoru botları için geçerlidir (genel kullanım).
* `User-agent: Googlebot` : Sadece Google'ın ana tarayıcısı için geçerlidir.
* `User-agent: Bingbot` : Sadece Bing'in tarayıcısı için geçerlidir.
* `Disallow`: Bu direktif, belirtilen User-agent'ın hangi dizinleri veya dosyaları tarayamayacağını belirtir.
* `Disallow: /` : Sitenin tamamını taramayı engeller (çok dikkatli kullanılmalı!).
* `Disallow: /admin/` : `/admin/` dizini altındaki tüm sayfaların taranmasını engeller.
* `Disallow: /sepetim` : `/sepetim` URL'sinin taranmasını engeller.
* `Allow`: Bu direktif, genellikle bir `Disallow` kuralının içinde belirli bir alt dizinin veya dosyanın taranmasına izin vermek için kullanılır.
* `Disallow: /katalog/`
* `Allow: /katalog/onemli-urunler/` : `/katalog/` dizini genel olarak engellenmiş olsa da, `/katalog/onemli-urunler/` dizinine erişime izin verir.
* `Sitemap`: Bu direktif, arama motorlarına sitemap dosyanızın konumunu bildirir. Her `robots.txt` dosyasına eklemeniz şiddetle tavsiye edilir.
* `Sitemap: https://www.siteniz.com/sitemap.xml`
E-ticaret sitenizde organik trafik çekmek ve satış yapmak için bazı sayfaların kesinlikle indekslemesi gerekir. Bunlar genellikle şunları içerir:
* Ana sayfa: Sitenizin giriş kapısı.
* Ürün sayfaları: Satışını yaptığınız her ürünün detay sayfası.
* Kategori sayfaları: Ürünleri gruplandırdığınız sayfalar (örn. `/giyim/`, `/elektronik/`).
* Blog yazıları: İçerik pazarlaması için kritik, bilgilendirici makaleler.
* Hakkımızda, İletişim, Gizlilik Politikası, Kargo Bilgileri gibi kurumsal sayfalar: Kullanıcı güveni ve yasal gereklilikler için önemlidir.
Genel bir kural olarak, `robots.txt` dosyanızda özel olarak `Disallow` etmediğiniz sürece, tüm sayfalar varsayılan olarak taranabilir kabul edilir. Bu nedenle, kritik sayfalarınız için genellikle açıkça bir `Allow` direktifi kullanmanıza gerek kalmaz, ancak belirli bir üst dizin yasaklandığında altındaki önemli bir sayfayı istisna tutmak için `Allow` kullanışlıdır.
Örnek:
```
User-agent: *
Disallow: /hesabim/
Disallow: /siparisler/
Allow: /hesabim/profil/halkaarz-bilgileri.html # Diyelim ki bu sayfa herkese açık ve indekslenmeli.
Sitemap: https://www.siteniz.com/sitemap.xml
```
Burada önemli olan, varsayılan olarak tüm önemli sayfalarınızın taranabilir olduğundan emin olmak ve yalnızca taranmasını istemediğiniz alanları listelemektir. Bu, tarama bütçesinizi optimize etmenin en güvenli yoludur.
Düşük değerli içerik reddi riskini azaltmak ve tarama bütçesinizi verimli kullanmak için aşağıdaki türden sayfaların taranmasını engellemek genellikle iyi bir uygulamadır:
1. Yönetici Paneli ve Güvenlik Sayfaları:
* `Disallow: /admin/`
* `Disallow: /yonetim/`
* `Disallow: /wp-admin/` (WordPress kullanan siteler için)
* `Disallow: /login/`
* `Disallow: /register/`
* `Disallow: /hesabim/` (Kullanıcıya özel hesap sayfaları)
2. Site İçi Arama Sonuçları Sayfaları: Bu sayfalar genellikle kopya içerik veya düşük değerli içerik olarak algılanabilir çünkü her arama sorgusu benzersiz bir URL oluşturabilir ve sitenizin içeriğini şişirebilir.
* `Disallow: /ara/`
* `Disallow: /*?s=`
* `Disallow: /*?q=`
3. Filtreleme ve Sıralama Parametreleri İçeren URL'ler: E-ticaret sitelerinin en yaygın kopya içerik sorunlarından biridir. Aynı ürünleri farklı parametrelerle gösteren binlerce URL oluşturabilirler.
* `Disallow: /*?sirala=`
* `Disallow: /*?filtre=`
* `Disallow: /*?renk=`
* `Disallow: /*?beden=`
* `Disallow: /*?fiyat=`
* Not: Bazı gelişmiş SEO stratejilerinde, belirli filtre kombinasyonlarının indekslenmesi istenebilir. Bu durumda, bunları özel olarak `Allow` etmeniz veya daha karmaşık bir yaklaşım izlemeniz gerekebilir (örn. Canonical etiketleri veya URL parametrelerini Search Console'da yapılandırma). Daha fazla bilgi için "[E-ticaret sitelerinde URL parametre yönetimi](https://www.orneklink.com/url-parametre-yonetimi)" başlıklı makalemize göz atabilirsiniz.
4. Alışveriş Sepeti ve Ödeme Sayfaları: Bu sayfalar kişiye özeldir ve arama motorları tarafından indekslenmeleri gerekmez.
* `Disallow: /sepet/`
* `Disallow: /checkout/`
* `Disallow: /odeme/`
* `Disallow: /tebrikler/` (Siparişin tamamlandığı sayfa)
5. Test, Geliştirme veya Staging Ortamları:
* `Disallow: /test/`
* `Disallow: /dev/`
6. Medya Dosyaları ve Düşük Kaliteli İçerik: Bazı durumlarda, belirli resim dizinleri, PDF'ler veya çok kısa, değersiz etiket sayfaları da engellenebilir.
* `Disallow: /wp-content/uploads/` (Eğer resimlerin doğrudan indekslenmesini istemiyorsanız)
* `Disallow: /etiket/` (Düşük hacimli veya anlamsız etiket sayfaları için)
`robots.txt` ile bir sayfayı `Disallow` etmek, arama motoru botlarının o sayfayı *tarayamamasını* sağlar. Ancak bu, o sayfanın arama motoru sonuçlarından *tamamen kaybolacağı* anlamına gelmez. Eğer engellediğiniz sayfaya başka sitelerden veya kendi sitenizden hala bağlantı varsa, Google bu sayfanın varlığını bilebilir ve "Bu sayfa için bilgi mevcut değil" gibi bir ibareyle yine de arama sonuçlarında gösterebilir.
Bir sayfanın arama motoru sonuçlarında *görünmesini* tamamen engellemek istiyorsanız, o sayfanın HTML `
` etiketine `noindex` meta etiketini eklemeniz gerekir:Ancak, botların bu etiketi görebilmesi için sayfayı *tarayabilmesi* gerekir. Bu nedenle:
* Tarama ve İndeksleme İstemiyorsanız (hassas veya gizli sayfalar): `robots.txt` ile `Disallow` edin.
* Tarama yapabilir ama İndeksleme İstemiyorsanız (düşük değerli ama herkese açık sayfalar): `robots.txt` ile `Disallow` etmeyin, bunun yerine sayfaya `` etiketini ekleyin.
* `Disallow` edilmiş bir sayfayı `noindex` ile indekslemeyi engellemek istiyorsanız, bu mümkün değildir, çünkü bot o sayfayı tarayamayacağı için `noindex` etiketini göremez.
Bu ayrım, düşük değerli içerik tespiti açısından kritik öneme sahiptir. Eğer botlar düşük değerli sayfalarınızı sürekli tarıyor ve indeksliyorsa, bu AdSense başvurularında veya mevcut AdSense hesaplarında sorunlara yol açabilir. `robots.txt` ile taramayı engelleyerek tarama bütçesinizi korurken, `noindex` ile taranan ancak indekslenmesini istemediğiniz sayfaların arama sonuçlarında görünmesini engellersiniz.
1. Joker Karakter (`*`) Kullanımı: Belirli kalıplara uyan URL'leri engellemek için joker karakter kullanın.
* `Disallow: /*etiket/` : `/etiket/` ile başlayan tüm URL'leri engeller.
* `Disallow: /katalog/*?` : `/katalog/` dizini altındaki tüm parametreli URL'leri engeller (URL'nin sonunda `?` olmadan).
* `Disallow: /*.js$` : Tüm `.js` uzantılı dosyaları engeller (URL'nin sonu `.js` ile bitenler).
* `Allow: /*.css$` (Bazı CSS dosyalarının taranmasını istiyorsanız)
2. `$` Karakteri: Bir URL'nin tam olarak belirtilen şekilde bitmesi gerektiğini belirtir.
* `Disallow: /sepetim$` : Sadece `/sepetim` URL'sini engeller, `/sepetim/odeme` gibi alt dizinleri değil.
3. Birden Fazla `User-agent`: Farklı arama motorları için farklı kurallar belirleyebilirsiniz, ancak genellikle `User-agent: *` ile genel kurallar belirlemek yeterlidir.
4. `Sitemap` Dosyasını Belirtin: Her zaman `robots.txt` dosyanızda sitemap dosyanızın veya dosyalarınızın tam URL'sini belirtin. Bu, arama motorlarının sitenizdeki tüm önemli sayfaları kolayca bulmasına yardımcı olur.
* `Sitemap: https://www.siteniz.com/sitemap_index.xml` (birden fazla sitemap varsa ana sitemap dizinini belirtin)
5. Düzenli Test ve İzleme: Google Search Console'da (GSC) bulunan `robots.txt` Test Aracı'nı kullanarak dosyanızın doğru çalıştığını doğrulayın. Herhangi bir değişiklik yaptıktan sonra mutlaka bu aracı kullanın. Ayrıca, GSC'deki "Kapsam" raporunu ve "Tarama İstatistikleri" raporunu düzenli olarak kontrol ederek, engellediğiniz sayfaların taranmaya çalışılıp çalışılmadığını veya önemli sayfalarınızın indeksleme durumunu izleyin. "[Google Search Console ile e-ticaret sitenizi nasıl optimize edersiniz?](https://www.orneklink.com/google-search-console-rehberi)" adlı makalemizden daha fazla bilgi edinebilirsiniz.
6. Yorumlar: `robots.txt` dosyanızda `#` işareti ile yorumlar ekleyebilirsiniz. Bu, özellikle karmaşık dosyalarda hangi kuralın ne işe yaradığını anlamak için faydalıdır.
```
# Tüm arama motorlarına izin ver
User-agent: *
# Yönetici panelini ve kullanıcı hesap sayfalarını engelle
Disallow: /admin/
Disallow: /hesabim/
# Site içi arama sonuçlarını ve filtreleme parametrelerini engelle (kopya içerik riski)
Disallow: /*?s=
Disallow: /*?filtre=
# Sitemap konumunu belirt
Sitemap: https://www.siteniz.com/sitemap.xml
```
* Kritik Sayfaları Yanlışlıkla Engelleme: En ölümcül hata! Ana sayfanızı, ürün veya kategori sayfalarınızı yanlışlıkla `Disallow` ederseniz, bu sayfalar arama motorlarında görünmez ve organik trafiğiniz sıfıra düşebilir. Her değişikliği dikkatlice test edin.
* `robots.txt` Dosyasının Erişim Sorunu: Dosyanın sitenizin kök dizininde olduğundan ve `www.siteniz.com/robots.txt` adresinden erişilebilir olduğundan emin olun.
* `noindex` ile `Disallow` Direktifini Karıştırma: Daha önce de belirttiğim gibi, `Disallow` taramayı engellerken, `noindex` indekslemeyi engeller (tarama izni verir). Amacınıza uygun olanı seçtiğinizden emin olun.
* Sözdizimi Hataları: Yanlış yazım, boşluk hataları veya yanlış karakterler dosyanın düzgün çalışmamasına neden olabilir.
* Çok Kapsamlı `Disallow` Kuralları: Bazen bir alanı engellemeye çalışırken, istemeden birçok önemli alanı da engellemiş olabilirsiniz. Özellikle joker karakterleri kullanırken çok dikkatli olun.
E-ticaret sitenizde doğru yapılandırılmış bir robots.txt dosyası, sitenizin SEO performansı, tarama bütçesi yönetimi ve "düşük değerli içerik" reddi riskini azaltma açısından hayati öneme sahiptir. Bu dosya, arama motorları botlarına sitenizi nasıl tarayacaklarını net bir şekilde bildirerek, enerjilerini gerçekten önemli olan kritik ürün ve kategori sayfalarınıza yoğunlaştırmalarını sağlar.
Unutmayın ki `robots.txt` sürekli bir optimizasyon sürecidir. Sitenize yeni sayfalar ekledikçe, filtreleme seçeneklerini değiştirdikçe veya yeni özellikler geliştirdikçe, `robots.txt` dosyanızı da gözden geçirmeniz ve güncellemeniz gerekebilir. Google Search Console'daki araçları kullanarak dosyanızın performansını düzenli olarak izlemek ve gerekli ayarlamaları yapmak, e-ticaret SEO stratejinizin vazgeçilmez bir parçası olmalıdır. Bu sayede, sitenizin organik görünürlüğünü artırırken, potansiyel AdSense veya arama motoru sıralama cezalarından da korunmuş olursunuz.