E Ticaret Sitelerinde Urun Filtreleme Ve Siralama Sayfalarini Robotstx
E Ticaret Sitelerinde Urun Filtreleme Ve Siralama Sayfalarini Robotstx

E-ticaret sitelerinde ürün filtreleme ve sıralama sayfalarını robots.txt üretici ile SEO dostu hale getirme yolları


E-ticaret siteleri, kullanıcı deneyimini zenginleştirmek ve ürün bulmayı kolaylaştırmak için gelişmiş filtreleme ve sıralama seçenekleri sunar. Müşterileriniz bir kategori sayfasında "fiyata göre sırala", "renge göre filtrele" veya "markaya göre daralt" gibi seçenekleri kullandığında, genellikle URL'de yeni parametreler oluşur. Bu, kullanıcılar için harika bir özellik olsa da, arama motorları için ciddi SEO sorunlarına yol açabilir. Bu makalede, bu tür dinamik sayfaların arama motoru optimizasyonu (SEO) üzerindeki potansiyel olumsuz etkilerini ve bu sorunları robots.txt üretici araçları kullanarak nasıl yöneteceğimizi detaylı bir şekilde inceleyeceğiz.
Bir SEO editörü olarak, Google AdSense politikalarına uygun, kaliteli ve arama motorları tarafından kolayca taranıp dizine eklenebilen bir web sitesi yapısının önemini her zaman vurgularım. Aşırı ve anlamsız sayfaların taranması, crawl bütçesi israfına neden olur ve sitenizin ana içeriğinin keşfedilmesini geciktirebilir.

Filtreleme ve Sıralama Sayfalarının SEO İçin Yarattığı Sorunlar


E-ticaret sitelerindeki dinamik filtreleme ve sıralama sayfaları, arama motorları için bir dizi karmaşık sorun ortaya çıkarır:

Yinelenen İçerik (Duplicate Content) Sorunu


Bir ürün kategorisinde farklı filtreleme kombinasyonları (örneğin, "Kırmızı Elbiseler", "S beden Kırmızı Elbiseler") URL'de değişikliklere neden olurken, sayfanın ana içeriği (ürün listesi) büyük ölçüde aynı kalabilir. Bu durum, arama motorları tarafından yinelenen içerik olarak algılanabilir. Google ve diğer arama motorları, birden fazla URL'de aynı veya benzer içeriği gördüğünde, hangi sürümün dizine eklenmesi gerektiği konusunda kararsız kalabilir, bu da sitenizin genel otoritesini zayıflatabilir ve sıralamaları olumsuz etkileyebilir.

Crawl Bütçesi İsrafı


Her web sitesinin, arama motoru botlarının (örneğin Googlebot) bir zaman diliminde tarayabileceği belirli bir crawl bütçesi vardır. Dinamik olarak oluşturulan binlerce, hatta milyonlarca filtre ve sıralama sayfası, botların bu bütçeyi düşük değerli, neredeyse aynı içeriğe sahip sayfaları taramak için harcamasına neden olur. Bu durum, sitenizin yeni veya önemli sayfalarının (yeni ürünler, blog yazıları vb.) daha geç fark edilmesine veya hiç taranmamasına yol açabilir.

Link Equity (Bağlantı Değeri) Dağılımı


Dahili bağlantılar, sitenizdeki sayfalara otorite ve alakalı değer aktarır. Eğer siteniz, kullanıcıların tıkladığı her filtre kombinasyonu için bir dahili bağlantı oluşturuyorsa ve bu sayfalar dizine eklenmek istenmiyorsa, değerli bağlantı değeri bu düşük kaliteli sayfalara dağılmış olur. Bu da ana kategori veya ürün sayfalarınızın alması gereken bağlantı değerini düşürür.

Değersiz Sayfaların Dizine Eklenmesi


Eğer bu filtre sayfaları doğru şekilde yönetilmezse, arama sonuçlarında kullanıcılar için anlamsız veya düşük kaliteli sayfalar görünmesine neden olabilir. Örneğin, "Kırmızı Elbiseler & 38 Beden & Pamuklu & Stokta Var & İndirimli" gibi çok spesifik ve uzun kuyruklu filtre kombinasyonları, genellikle organik aramalarda değerli bir yer tutmaz ve kullanıcının arayışıyla tam olarak eşleşmeyebilir.

Robots.txt'in Rolü ve Önemi


`robots.txt` dosyası, web sitenizin kök dizininde bulunan ve arama motoru botlarına sitenizdeki hangi sayfalara erişip erişemeyeceklerini bildiren bir metin dosyasıdır. Bu dosya, sitenizin bir haritası olmasa da, bir nevi trafik polisidir. Botların belirli bölümlere girmesini engelleyerek, botların zamanını daha değerli sayfalara harcamasını sağlar.
`robots.txt` ile bir sayfayı engellemek, arama motorlarının o sayfayı taramasını durdurur. Ancak unutulmaması gereken kritik bir nokta şudur: `robots.txt` bir dizine ekleme engelleme aracı değildir. Yani, bir sayfa `robots.txt` ile engellenmiş olsa bile, eğer başka sitelerden veya kendi sitenizden bu sayfaya link veriliyorsa, Google o sayfanın varlığını bilebilir ve hatta "bu sayfa robots.txt tarafından engellendi" uyarısıyla arama sonuçlarında gösterebilir. Bu nedenle, `robots.txt` daha çok crawl bütçesi yönetiminde ve botları düşük değerli sayfalarınızdan uzak tutmada etkilidir.

Robots.txt Üretici Kullanmanın Avantajları


`robots.txt` dosyasını manuel olarak oluşturmak, özellikle karmaşık URL parametreleri olan büyük e-ticaret siteleri için zahmetli ve hataya açık bir süreç olabilir. Bu noktada, bir robots.txt üretici devreye girer.
1. Kolay Kullanım: Kodlama bilgisi gerektirmeden, kullanıcı dostu arayüzler aracılığıyla `Disallow` (engelle) ve `Allow` (izin ver) direktiflerini kolayca oluşturmanızı sağlar.
2. Doğruluk ve Hata Azaltma: Manuel yazımda kolayca yapılabilecek yazım hatalarını veya syntax hatalarını minimize eder. Üreticiler, doğru formatı ve söz dizimini garanti eder.
3. Verimlilik: Hızlı bir şekilde karmaşık kurallar dizisi oluşturabilir ve sitenizin boyutuna göre uyarlayabilirsiniz.
4. En İyi Uygulamalar: Çoğu robots.txt üretici aracı, SEO uzmanlarının önerdiği genel en iyi uygulamaları ve yaygın filtreleme parametrelerini dikkate alarak çalışır.
5. Test ve Doğrulama: Bazı gelişmiş araçlar, oluşturulan `robots.txt` dosyasının nasıl performans göstereceğini test etme olanağı sunar, böylece olası hataları canlıya almadan önce tespit edebilirsiniz.

E-ticaret Sitelerinde Filtre ve Sıralama URL Yapıları


E-ticaret sitelerinde filtreleme ve sıralama için kullanılan URL'ler genellikle `?` (soru işareti) ile başlayan URL parametreleri içerir. Örneğin:
* `urunler/telefonlar?sirala=fiyat-art` (fiyata göre artan sıralama)
* `urunler/ayakkabilar?beden=42&renk=mavi` (beden ve renk filtresi)
* `kategoriler/elbise?fiyat_araligi=100-200&marka=x` (fiyat aralığı ve marka filtresi)
Bu parametreler, sayfa içeriğini dinamik olarak değiştirirken, temelde aynı kategori sayfasının farklı bir görünümünü sunar. Arama motorları için her bir kombinasyon yeni bir URL demektir ve bu durum, yönetilmezse yukarıda bahsedilen sorunlara yol açar.

SEO Dostu robots.txt Oluşturma Stratejileri


Etkili bir `robots.txt` dosyası oluşturmak, stratejik bir yaklaşım gerektirir. İşte adımlar:

Adım 1: Parametreleri Tanımlama


Sitenizde kullanılan tüm filtreleme ve sıralama URL parametrelerini belirleyin. Bunlar genellikle `sort`, `filter`, `price`, `color`, `size`, `page` (sayfalama için) gibi kelimeler içerebilir. Sitenizin URL yapısını ve web sunucusu günlüklerini inceleyerek bu parametreleri listeleyebilirsiniz. Örneğin: `?sirala=`, `?fiyat=`, `?renk=`, `?beden=`, `?sayfa=`.

Adım 2: robots.txt Üretici Kullanımı


Bir robots.txt üretici aracı kullanarak, belirlediğiniz parametreleri `Disallow` direktifleriyle engelleyin. Çoğu üretici, "Add Disallow Rule" gibi seçeneklerle bu işlemi kolaylaştırır.
Örnek `Disallow` kuralları:
```
User-agent: *
Disallow: /*?sort=*
Disallow: /*?filter=*
Disallow: /*?price=*
Disallow: /*?color=*
Disallow: /*?size=*
Disallow: /*?page=*&sort=*
Disallow: /*&sort=*
Disallow: /*&filter=*
Disallow: /*&price=*
Disallow: /*&color=*
Disallow: /*&size=*
Disallow: /*&page=*
```
Burada `*` joker karakteri, "herhangi bir karakter dizisi" anlamına gelir. Bu kurallar, URL'de `?sort=` veya `&sort=` gibi parametreleri içeren tüm sayfaların taranmasını engeller. Bu sayede, arama motorları ana kategori sayfalarınıza odaklanabilir.

Adım 3: İzin Verilmesi Gereken Sayfalar


Genellikle ana kategori sayfaları, ürün detay sayfaları ve statik sayfalar gibi değerli içeriklerin taranmasına izin verilmelidir. `robots.txt` dosyasındaki `Disallow` kurallarınızın bu önemli sayfaları yanlışlıkla engellemediğinden emin olun. Genellikle, spesifik parametreleri hedefleyen `Disallow` kuralları, temiz URL'lere sahip ana sayfaları etkilemez. Ancak eğer belirli bir filtre kombinasyonu (örneğin, "Yeni Sezon Kırmızı Elbiseler" gibi) gerçekten özel bir değeri temsil ediyorsa ve arama motorlarında sıralanmasını istiyorsanız, bu sayfaya temiz bir URL atayarak (`/yeni-sezon-kirmizi-elbiseler/`) ve `robots.txt` ile engellemeyerek özel olarak yönetmelisiniz.

Adım 4: robots.txt ve noindex İlişkisi


Yukarıda belirtildiği gibi, `robots.txt` taramayı engeller, dizine eklemeyi değil. Bir sayfanın arama sonuçlarında görünmesini kesinlikle istemiyorsanız, meta `noindex` etiketini kullanmanız gerekir. Ancak bir sayfa `robots.txt` ile engellenmişse, arama motoru botları `noindex` etiketini göremez.
Bu durumda iki senaryo vardır:
1. Henüz Dizine Eklenmemiş Sayfalar: Bu tür filtre sayfalarının dizine eklenmesini baştan engellemek için `robots.txt` `Disallow` yeterlidir. Botlar hiç taramadığı için dizine de eklemeyecektir.
2. Zaten Dizine Eklenmiş Sayfalar: Eğer bazı filtre sayfaları zaten dizine eklendiyse ve bunları kaldırmak istiyorsanız, öncelikle `robots.txt` engelini geçici olarak kaldırıp (veya bu sayfa için `Allow` direktifi ekleyip), sayfalara `noindex, follow` meta etiketini eklemelisiniz. Google bu etiketi gördükten sonra sayfayı dizinden kaldıracaktır. Sayfa dizinden kaldırıldıktan sonra, isterseniz tekrar `robots.txt` ile taramayı engelleyebilirsiniz.

Adım 5: Google Search Console ile Doğrulama


Yeni `robots.txt` dosyanızı yükledikten sonra, Google Search Console'daki `robots.txt` Test Aracı'nı kullanarak kurallarınızın beklediğiniz gibi çalışıp çalışmadığını doğrulayın. Ayrıca, "URL Denetleme" aracını kullanarak belirli filtre URL'lerinin taranıp taranmadığını kontrol edebilir ve "Kapsam" raporunda engellenen URL'lerin sayısını takip edebilirsiniz.

Alternatif ve Destekleyici SEO Teknikleri


`robots.txt` tek başına bir çözüm değildir. SEO dostu bir yapı için ek teknikler kullanmak faydalı olacaktır:
* Canonical Etiketleri: Filtreleme veya sıralama sonucu oluşan URL'lerin `` etiketi ile ana kategori sayfasına yönlendirilmesi, arama motorlarına hangi URL'nin asıl ve dizine eklenmesi gereken sürüm olduğunu bildirir. Bu, yinelenen içerik sorununu çözmenin güçlü bir yoludur. Buradaki makalemiz, URL yapısı ve canonical etiketlerinin detaylarını ele almaktadır: [/makale.php?sayfa=url-yapisi-ve-canonical-etiketleri]
* URL Parametrelerinin Anlaşılması ve Yönetimi: Google Search Console'da "URL Parametreleri" aracı (her ne kadar çoğu site için işlevi değişmiş olsa da) web yöneticilerinin, sitelerindeki parametrelerin Google tarafından nasıl ele alınması gerektiğini belirtmesine olanak tanıyordu. Bu aracın işlevi değişse de, web yöneticisi olarak sitenizdeki parametreleri ve bunların işlevlerini anlamak ve Google'ın otomatik olarak doğru kararları vermesini sağlamak için sitenizi optimize etmek hala önemlidir.
* Faset Navigasyon Tasarımı: Gelişmiş e-ticaret siteleri, faset navigasyon (filtreleme) için JavaScript veya AJAX kullanarak, kullanıcı filtreleri seçtiğinde URL'yi değiştirmeyen veya `pushState` / `replaceState` API'leri ile kullanıcı dostu, ancak SEO'ya zarar vermeyen URL'ler oluşturan çözümler sunar. Bu, dinamik içeriği sunarken URL karmaşasından kaçınmanın etkili bir yoludur.
* Sitemaps (Site Haritaları): XML site haritanıza yalnızca değerli, dizine eklenmesini istediğiniz ana kategori ve ürün sayfalarını dahil edin. `robots.txt` ile engellediğiniz filtre sayfalarını site haritanıza eklemeyin. XML site haritaları hakkında daha fazla bilgi için bu makaleyi okuyabilirsiniz: [/makale.php?sayfa=seo-icin-sitemap-rehberi]
* Dahili Bağlantı Yapısı: Dahili bağlantılar kurarken, `robots.txt` ile engellediğiniz veya `canonical` etiketiyle ana sayfaya işaret ettiğiniz filtre URL'lerine doğrudan bağlantı vermemeye özen gösterin.

Robots.txt Üretici Kullanırken Dikkat Edilmesi Gerekenler


* Yanlış Engellemeler: En büyük risk, sitenizdeki önemli sayfaları (örneğin ana kategori sayfaları, ürün detay sayfaları, css/js dosyaları) yanlışlıkla `robots.txt` ile engellemektir. Bu, sitenizin arama sonuçlarından tamamen kaybolmasına neden olabilir. Her zaman `robots.txt` dosyasını test edin!
* Sık Güncelleme İhtiyacı: Sitenize yeni filtreler eklediğinizde veya URL yapınızı değiştirdiğinizde `robots.txt` dosyanızı güncellemeniz gerekebilir. Bu süreci rutin SEO denetimlerinizin bir parçası haline getirin.
* Tek Başına Bir Çözüm Değildir: `robots.txt`, sitenizin genel SEO stratejisinin sadece bir parçasıdır. Canonical etiketleri, `noindex` meta etiketleri, kaliteli içerik, site hızı ve iyi bir dahili bağlantı yapısı gibi diğer faktörleri de göz ardı etmeyin.

Sonuç


E-ticaret sitelerinde ürün filtreleme ve sıralama sayfalarının yönetimi, crawl bütçesi yönetimi ve yinelenen içerik sorunlarının önüne geçmek için kritik öneme sahiptir. Bir robots.txt üretici kullanarak, bu dinamik olarak oluşturulan URL parametrelerini etkili bir şekilde engelleyebilir ve arama motoru botlarının sitenizin en değerli içeriğine odaklanmasını sağlayabilirsiniz.
Unutmayın, iyi bir SEO dostu strateji, kullanıcı deneyimini bozmadan arama motorlarıyla uyum içinde çalışmaktır. `robots.txt` doğru kullanıldığında, e-ticaret sitenizin performansını önemli ölçüde artırabilir ve sitenizin arama motorları için daha verimli hale gelmesine yardımcı olabilir. Bu sayede, Google'ın web yöneticisi yönergelerine uygun, temiz ve düzenli bir site yapısı sunarak organik görünürlüğünüzü maksimize edersiniz.

Ezgi Avcı

Yazar: Ezgi Avcı

Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.

Diğer Makaleler

Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Web Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NWeb Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeYonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Yonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Gereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciGereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizYanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Yanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Robotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimRobotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Robotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Yanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorYanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimRobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz ARobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz AWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosBelirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Belirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Yonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobYonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil KontOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil Kont