
E-ticaret ürün filtre sayfalarının robots.txt ile arama motorlarına kapanması nasıl sağlanır?
E-ticaret siteleri, geniş ürün yelpazelerini kullanıcılarına sunarken, bu ürünleri daha kolay bulabilmeleri için çeşitli filtreleme seçenekleri sunar. Renk, boyut, marka, fiyat aralığı gibi filtreler, kullanıcı deneyimi açısından kritik öneme sahiptir. Ancak, bu filtreleme sayfalarının dinamik olarak oluşturduğu binlerce, hatta on binlerce
URL parametreleri ile dolu sayfa, arama motoru optimizasyonu (SEO) açısından ciddi sorunlara yol açabilir. Bir SEO editörü olarak, bu durumun hem sitenin genel performansını hem de Google AdSense gibi reklam platformlarından elde edilecek geliri dolaylı yoldan nasıl etkileyebileceğini çok iyi bilmekteyim.
Bu makalede, e-ticaret sitelerindeki ürün filtre sayfalarını
robots.txt dosyası kullanarak arama motorlarına nasıl kapatacağınızı, bu süreçte dikkat etmeniz gerekenleri ve bunun SEO ve site sağlığı üzerindeki olumlu etkilerini detaylı bir şekilde ele alacağız. Amacımız, sitenizin
tarama bütçesini (crawl budget) etkin bir şekilde yönetmek ve arama motorlarının yalnızca değerli, dizine eklenmesi gereken içeriklerinizi taramasını sağlamaktır.
E-ticaret Filtre Sayfalarının SEO'ya Etkileri
E-ticaret sitelerindeki filtre sayfaları, yanlış yönetildiğinde birçok SEO sorununa neden olabilir:
Yinelenen İçerik Problemi
Filtre sayfaları genellikle birbirine çok benzeyen içeriklere sahiptir. Örneğin, "kırmızı tişört" filtresi ile "M beden tişört" filtresi birleştiğinde ortaya çıkan "kırmızı M beden tişört" sayfası, ana kategori sayfası veya diğer filtre sayfalarıyla içerik olarak büyük ölçüde çakışır. Arama motorları için bu durum, ciddi bir
yinelenen içerik sorununa işaret eder. Yinelenen içerik, arama motorlarının hangi sayfayı dizine ekleyeceğine karar vermesini zorlaştırır, sitenizin otoritesini dağıtır ve hatta cezalandırılma riskini artırabilir. Google AdSense reklamları yayınlayan bir site için, içerik kalitesi ve özgünlük AdSense politikalarının temelini oluşturur; yinelenen içerik, uzun vadede reklam gelirlerini olumsuz etkileyebilir.
Tarama Bütçesi İsrafı
Her web sitesinin, arama motoru botlarının (crawler'ların) siteyi taramak için harcayabileceği belirli bir
tarama bütçesi vardır. Filtre sayfaları, genellikle sonsuz kombinasyonlar üretebilen dinamik URL'lere sahip olduğundan, botlar bu düşük değerli sayfaları taramak için değerli bütçelerini harcar. Bu, sitenizdeki önemli ürün, kategori veya blog sayfalarının yeterince sık taranamamasına veya dizine eklenmemesine neden olabilir.
robots.txt kullanarak bu sayfaları taramadan engellemek, botların enerjilerini daha değerli sayfalara yönlendirmesini sağlayarak tarama verimliliğini artırır. Bu konu hakkında daha fazla bilgi için `/makale.php?sayfa=tarama-butcesi-optimizasyonu` adresindeki makalemizi inceleyebilirsiniz.
Düşük Kaliteli Sayfalar
Birçok filtre kombinasyonu, arama motoru kullanıcıları için gerçek bir değer sunmaz. Örneğin, "siyah XXL tişörtler > %50 indirimli > 200 TL altı > pamuklu" gibi spesifik bir filtre kombinasyonu, çok az sayıda arama sorgusuna karşılık gelir ve genellikle çok az trafik alır. Bu tür sayfaların arama motoru sonuçlarında yer alması, sitenizin genel kalite algısını düşürebilir. Arama motorları, kullanıcılara en alakalı ve yüksek kaliteli sonuçları sunmayı hedefler; bu tür sayfaların dizinde yer alması, bu amaca aykırıdır.
Robots.txt Nedir ve Neden Kullanılır?
`robots.txt` dosyası, web sitenizin kök dizininde bulunan ve arama motoru botlarına sitenizdeki hangi sayfalara erişip erişemeyeceklerini bildiren basit bir metin dosyasıdır. Bu dosya, site yöneticilerine botların davranışlarını kontrol etme yeteneği sunar. Unutulmamalıdır ki `robots.txt` bir "dizin dışına çıkarma" (deindexing) aracı değildir; yalnızca "tarama engelleme" (disallow crawling) aracıdır. Yani, bir sayfayı `robots.txt` ile engellemek, o sayfanın arama motoru dizinlerinden hemen kaldırılacağı anlamına gelmez. Ancak, botların o sayfayı bir daha taramasını engeller.
Filtre sayfalarını arama motorlarına kapatmak için `robots.txt` kullanımı, özellikle yeni oluşan filtre kombinasyonlarının veya henüz dizine eklenmemiş filtre sayfalarının arama motorları tarafından keşfedilmesini ve taranmasını önlemek için oldukça etkilidir.
Robots.txt ile Filtre Sayfalarını Engelleme Stratejileri
E-ticaret sitenizdeki filtre sayfalarını `robots.txt` ile engellerken dikkatli bir yaklaşım sergilemek, sitenizin temel işlevselliğini bozmamak adına kritik öneme sahiptir.
URL Yapılarını Anlamak
İlk adım, e-ticaret sitenizin filtre sayfalarının URL yapılarını analiz etmektir. Çoğu e-ticaret platformu, filtreleri URL'ye eklemek için belirli desenler kullanır. Yaygın desenler şunları içerebilir:
* Soru işaretinden sonra gelen `?`
URL parametreleri: `siteadi.com/kategori?renk=kırmızı&beden=M`
* Dizin tabanlı yapılar: `siteadi.com/kategori/filtre/kırmızı/M`
* Hash (`#`) tabanlı parametreler (genellikle tarayıcı tarafında işlendiği için arama motorları tarafından göz ardı edilir, ancak dikkat etmekte fayda var).
Bu desenleri belirlemek, `robots.txt` dosyanızda doğru engelleme direktiflerini yazmanıza yardımcı olacaktır.
Wildcard (Yıldız) Kullanımı
`robots.txt` dosyasında wildcard (`*`) karakterini kullanarak geniş URL desenlerini hedefleyebilirsiniz. Bu, özellikle binlerce farklı filtre kombinasyonunu engellemek için çok kullanışlıdır.
Örnek Yaklaşımlar:1.
Belirli bir parametre ile başlayan tüm URL'leri engelleme:Eğer tüm filtre parametreleriniz `?` işaretinden sonra geliyorsa ve genellikle `?filtre=` veya `?sort=` gibi belirli anahtar kelimeler içeriyorsa, bunları hedefleyebilirsiniz.
`User-agent: *`
`Disallow: /*?renk=*` (URL'sinde `?renk=` geçen her şeyi engeller)
`Disallow: /*?beden=*` (URL'sinde `?beden=` geçen her şeyi engeller)
2.
Tüm sorgu dizilerini engelleme:Eğer sitenizdeki filtreleme tamamen `?` ile başlayan sorgu dizileriyle yapılıyorsa ve bu sorguların çoğu dizine eklenmemesi gereken filtre kombinasyonlarıysa, genel bir kural kullanabilirsiniz. Ancak bu kuralı uygularken çok dikkatli olmak gerekir, çünkü sitenizdeki bazı önemli parametreleri (örneğin sayfalama `?sayfa=2` veya oturum ID'leri `?sessionid=`) de engelleyebilir.
`User-agent: *`
`Disallow: /*?*` (Bu kural, `?` içeren her URL'yi engeller. Çok geniş kapsamlıdır ve hassasiyetle kullanılmalıdır.)
3.
Belirli bir dizin altındaki filtreleri engelleme:Bazı e-ticaret siteleri, filtreleri `siteadi.com/kategori/filter/renk/mavi` gibi dizin tabanlı bir yapıda barındırır.
`User-agent: *`
`Disallow: /kategori/filter/` (Bu dizin altındaki her şeyi engeller.)
Noindex ve Robots.txt Arasındaki İlişki: Önemli Bir Farkındalık
Burada kritik bir ayrımı yapmak önemlidir: `robots.txt` bir sayfayı *tarama*dan engellerken, `noindex` meta etiketi veya `X-Robots-Tag` HTTP başlığı bir sayfanın *dizine eklenmesini* engeller.
* Eğer bir sayfa zaten arama motoru dizinlerindeyse ve siz onu `robots.txt` ile `Disallow` ederseniz, arama motoru botları o sayfayı tarayamayacağı için `noindex` etiketini göremez. Bu durumda, sayfa dizinde kalmaya devam edebilir ancak içeriği güncellenmez.
* Dolayısıyla, eğer filtre sayfalarınız zaten dizine eklenmişse ve bunları dizinden kaldırmak istiyorsanız, öncelikle bu sayfalara `noindex` meta etiketini veya `X-Robots-Tag`'i uygulamanız gerekir. Botlar bu sayfaları tarayıp `noindex` direktifini gördükten sonra, sayfaları dizinden kaldıracaktır.
* Sayfalar dizinden kaldırıldıktan sonra,
tarama bütçesi tasarrufu sağlamak amacıyla `robots.txt` ile `Disallow` edebilirsiniz. Bu, botların artık dizinde olmayan bu sayfaları boş yere taramasını engeller.
* Yeni oluşan veya henüz dizine eklenmemiş filtre kombinasyonları için ise `robots.txt` `Disallow` direktifi, botların bu sayfaları keşfetmesini ve taramasını baştan engelleyerek dizine eklenmelerini önleyebilir. Ancak, arama motorlarının linkler aracılığıyla bir sayfanın varlığını bilebildiği ve tarayamasa bile dizine ekleyebildiği "URL known to Google, disallow by robots.txt" durumu da mevcuttur. Bu nedenle, `noindex` direktifi
arama motoru optimizasyonu (SEO) açısından dizine eklenmeme konusunda daha kesin bir çözümdür.
Özetle:
* Dizinden kesinlikle çıkarılmasını istediğiniz sayfalar için:
önce noindex, sonra `robots.txt` `Disallow`.
* Henüz dizine eklenmemiş ve tarama bütçesini korumak istediğiniz sayfalar için: `robots.txt` `Disallow`.
Canonical Etiketleri ile Tamamlayıcı Yaklaşım
Bazen filtre sayfaları, ana kategori sayfasına benzer ancak hafif farklılıklar gösteren içerikler sunar. Bu gibi durumlarda, `robots.txt` ile tamamen engellemek yerine
canonical etiketleri kullanmak daha uygun olabilir. `rel="canonical"` etiketi, arama motorlarına belirli bir sayfanın "asıl" veya "tercih edilen" versiyonunu bildirir. Böylece, filtre sayfalarının SEO değerini ana kategori sayfasına aktararak,
yinelenen içerik sorununu çözebilir ve link gücünü tek bir sayfada toplayabilirsiniz. Bu konu hakkında daha derinlemesine bilgi için `/makale.php?sayfa=canonical-etiketleri-rehberi` makalemizi ziyaret edebilirsiniz.
Uygulama ve Kontrol Adımları
1.
Mevcut Filtre URL'lerini Denetleyin: Google Search Console, sitenizdeki taranmış ve dizine eklenmiş URL'leri görüntülemek için harika bir araçtır. Burada, filtre sayfalarınızdan hangilerinin dizine eklendiğini tespit edebilirsiniz.
2.
robots.txt Dosyasını Oluşturun veya Güncelleyin: Sitenizin kök dizinine erişerek (genellikle FTP veya hosting kontrol paneliniz aracılığıyla) `robots.txt` dosyasını düzenleyin. Engellemek istediğiniz desenlere uygun `Disallow` direktiflerini ekleyin.
3.
robots.txt Test Cihazını Kullanın: Google Search Console'da yer alan `robots.txt Test Cihazı` (Robots.txt Tester) aracı ile değişikliklerinizin doğru çalıştığından ve yanlışlıkla önemli sayfaları engellemediğinizden emin olun. Bu araç, yazdığınız direktiflerin hangi URL'leri etkileyeceğini size gösterir.
4.
Dizin Durumunu İzleyin: `robots.txt` değişikliklerini uyguladıktan sonra, Google Search Console'daki Dizin Kapsamı raporunu düzenli olarak kontrol edin. Engellediğiniz sayfaların "Taranmadı - robots.txt engellemesi nedeniyle" veya "Keşfedildi - henüz dizine eklenmedi" durumuna geçtiğini görmelisiniz. Eğer daha önce dizine eklenmiş sayfaları kaldırmak istiyorsanız ve `noindex` kullandıysanız, onların dizinden kaldırıldığını da teyit edin.
Sonuç
E-ticaret sitelerinde ürün filtre sayfalarının doğru yönetimi, etkili bir
arama motoru optimizasyonu (SEO) stratejisinin temelidir.
Robots.txt dosyasını akıllıca kullanarak, sitenizin
tarama bütçesini koruyabilir,
yinelenen içerik sorunlarını en aza indirebilir ve arama motorlarının sitenizdeki en değerli içeriklere odaklanmasını sağlayabilirsiniz. Bu, sadece SEO sıralamalarınızı yükseltmekle kalmaz, aynı zamanda sitenizin genel sağlığını iyileştirir ve Google AdSense gibi reklam platformlarından elde ettiğiniz gelirin sürdürülebilirliğine katkıda bulunur. Unutmayın, `robots.txt` taramayı engellerken,
noindex etiketi dizine eklemeyi garanti altına alır. Bu iki aracı doğru anlayışla ve dikkatle kullanmak, dijital varlığınızın başarısı için hayati öneme sahiptir. Düzenli denetim ve dikkatli uygulama ile e-ticaret sitenizin arama motorlarındaki performansını önemli ölçüde artırabilirsiniz.
Yazar: Ezgi Avcı
Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.