Robotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan Engellenme
Robotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan Engellenme

Robots.txt Üreticisi Kullanırken Önemli Sayfaların Google'dan Engellenmesini Nasıl Önlersiniz?


Bir SEO editörü olarak, web sitenizin Google arama sonuçlarında görünürlüğünü ve dolayısıyla potansiyel AdSense gelirlerinizi maksimize etmenin ne kadar kritik olduğunu çok iyi biliyorum. Bu süreçte, arama motoru botlarının sitenizi nasıl tarayacağını ve dizine ekleyeceğini belirleyen temel araçlardan biri robots.txt dosyasıdır. Ancak bu güçlü araç, yanlış kullanıldığında sitenizin önemli sayfalarının Google'dan tamamen engellenmesine yol açabilir. Özellikle bir robots.txt üreticisi kullandığınızda, otomatik oluşturulan kuralların sitenizin benzersiz yapısına uymaması ve istenmeyen engellemeler yaratması riski her zaman mevcuttur. Bu makalede, bu riskleri nasıl yöneteceğinizi ve önemli sayfalarınızın yanlışlıkla Google'ın erişiminden nasıl korunacağını detaylı bir şekilde ele alacağız.

Robots.txt Nedir ve Neden Önemlidir?


Robots.txt dosyası, web sitenizin kök dizininde bulunan ve arama motoru botlarına (robotlara) sitenizin hangi bölümlerini tarayabileceklerini veya tarayamayacaklarını bildiren basit bir metin dosyasıdır. Bu dosya, site yöneticilerine bot trafiğini kontrol etme, sunucu yükünü azaltma ve özellikle hassas veya yinelenen içeriklerin dizine eklenmesini önleme imkanı sunar. Örneğin, bir sitenin yönetici paneli, kullanıcı veritabanı veya geliştirme aşamasındaki sayfaları gibi halka açık olmayan bölümleri genellikle robots.txt ile engellenir.
Bu dosyanın önemi, sitenizin SEO performansı ve AdSense geliri üzerinde doğrudan bir etkiye sahip olmasından kaynaklanır. Google gibi arama motorları, sitenizi dizine eklemeden ve arama sonuçlarında göstermeden önce sayfalarınızı taramak zorundadır. Eğer bir sayfa robots.txt tarafından engellenirse, Google botları o sayfayı ziyaret edemez, içeriğini okuyamaz ve dolayısıyla onu arama sonuçlarına dahil edemez. Bu durum, potansiyel trafik ve dolayısıyla reklam gösterimi ve tıklamaları anlamına gelen AdSense geliri kaybına yol açar. Yanlış yapılandırılmış bir robots.txt dosyası, sitenizin en değerli sayfalarını, ürün listelemelerini, blog yazılarını veya hizmet detaylarını Google'dan gizleyerek büyük zararlar verebilir. Bu nedenle, robots.txt yönetimi, her SEO stratejisinin temel direklerinden biridir.

Robots.txt Üreticileri Neden Kullanılır ve Riskleri Nelerdir?


Robots.txt üreticisi araçları, özellikle yeni başlayanlar veya hızlı bir çözüm arayanlar için cazip görünür. Bu araçlar, karmaşık sözdizimini anlamaya gerek kalmadan, genellikle bir form doldurarak veya birkaç kutucuğu işaretleyerek otomatik bir robots.txt dosyası oluşturma kolaylığı sağlar. Bu, zamandan tasarruf etmenize ve hızlıca bir dosya oluşturmanıza olanak tanır. Ancak, bu kolaylık beraberinde önemli riskleri de getirir:
1. Genel Kurallar ve Özel İhtiyaçlar: Üreticiler genellikle genel geçer kurallar uygular. Sitenizin benzersiz bir yapısı, özel dizinleri veya belirli sayfaları varsa, otomatik oluşturulan kurallar bu özel ihtiyaçları karşılayamayabilir veya daha kötüsü, önemli kısımları yanlışlıkla engelleyebilir.
2. Aşırı Engelleme: Bazı üreticiler, "her şeyi engelle" mantığıyla çalışan veya gereğinden fazla kısıtlayıcı kurallar öneren şablonlar sunabilir. Bu, sitenizin dinamik olarak oluşturulan URL'lerini, filtreleme sayfalarını veya hatta sitenin çalışması için gerekli olan CSS/JS dosyalarını engelleme potansiyeli taşır.
3. Anlamama ve Doğrulama Eksikliği: Kullanıcılar, üreticinin oluşturduğu kodu tam olarak anlamadan dosyayı yükleyebilirler. Bu, potansiyel hataları gözden kaçırmaya ve sitenin Google'daki görünürlüğüne zarar vermeye neden olabilir.
4. Noindex ile Karıştırma: Robots.txt, bir sayfayı *tarayıcıların ziyaret etmesini engeller*, ancak bir sayfayı *dizine eklenmesini engellemez* (teknik olarak, Google bazen engellenen bir URL'yi yine de dizine ekleyebilir, ancak içeriğini okuyamaz). Sayfanın dizine eklenmesini kesin olarak engellemek için `noindex` meta etiketinin veya `X-Robots-Tag` HTTP başlığının kullanılması gerekir. Üreticiler genellikle bu ayrımı net bir şekilde vurgulamaz, bu da yanlış uygulamalara yol açabilir.
Bu riskler göz önüne alındığında, robots.txt üreticisi kullanmak bir başlangıç noktası olabilir, ancak asla son adım olmamalıdır. Üretilen dosyanın kapsamlı bir şekilde incelenmesi ve sitenizin yapısına göre uyarlanması hayati önem taşır.

Önemli Sayfaların Engellenmesini Önlemek İçin Adımlar


Önemli sayfalarınızın Google'dan yanlışlıkla engellenmesini önlemek için atmanız gereken adımlar şunlardır:

1. Temel Bir Robots.txt Anlayışı Edinin


Robots.txt dosyasının temel sözdizimini anlamak, üreticinin sunduğu çıktıyı doğru bir şekilde yorumlamanızı sağlar. İşte bilmeniz gerekenler:
* `User-agent:`: Bu direktif, kuralın hangi arama motoru botları için geçerli olduğunu belirtir. `User-agent: *` tüm botlar için geçerli demektir. `User-agent: Googlebot` ise sadece Google botları için geçerlidir.
* `Disallow:`: Bu direktif, belirtilen botun hangi URL'leri taramasına izin verilmediğini gösterir. Örneğin, `Disallow: /admin/` "/admin/" ile başlayan tüm URL'leri engeller.
* `Allow:`: Bu direktif, genellikle bir `Disallow` kuralını geçersiz kılmak için kullanılır. Örneğin, `Disallow: /klasor/` ve `Allow: /klasor/onemli-dosya.html` şeklindeki bir kombinasyon, tüm "/klasor/" dizinini engellerken, o dizindeki belirli bir dosyanın taranmasına izin verir. Bu, sitenizin belirli bir bölümünü genel olarak engellerken, o bölümdeki önemli alt dizinleri veya dosyaları görünür kılmak için kritik bir yoldur.
* `Sitemap:`: Bu direktif, sitenizin XML site haritasının konumunu belirtir. Arama motorlarının sitenizdeki tüm önemli sayfaları kolayca bulmasına yardımcı olur.
Bu temel direktifleri anlamak, bir robots.txt üreticisi tarafından oluşturulan dosyanın her satırının ne anlama geldiğini kavramanıza yardımcı olacaktır.

2. Site Haritanızı (Sitemap) Oluşturun ve Güncel Tutun


XML site haritası, sitenizdeki tüm önemli URL'lerin bir listesidir. Arama motorlarına sitenizin yapısı hakkında doğrudan bilgi vererek, yeni ve güncellenmiş sayfaları daha hızlı keşfetmelerine yardımcı olur. Robots.txt dosyanızda site haritanızın konumunu belirtmek, Googlebot'un engellenmeyen tüm önemli sayfalarınızı bulmasını sağlamanın en iyi yollarından biridir:
```
Sitemap: https://www.siteadi.com/sitemap.xml
```
Site haritanızı düzenli olarak güncellemek ve robots.txt dosyanızda doğru bir şekilde referans göstermek, dizin oluşturma sürecinin sorunsuz ilerlemesi için elzemdir. Daha derinlemesine bilgi için 'Site Haritaları ve SEO' makalemize göz atabilirsiniz: /makale.php?sayfa=site-haritalari-ve-seo

3. Kritik Sayfalarınızı Belirleyin


Hangi sayfalarınızın Google tarafından mutlaka taranması ve dizine eklenmesi gerektiğini net bir şekilde listelemek çok önemlidir. Bunlar genellikle:
* Ana sayfanız
* Ürün ve hizmet sayfalarınız
* Kategori ve etiket sayfalarınız
* Blog yazılarınız
* İletişim, gizlilik politikası ve hakkımızda sayfalarınız
* AdSense reklamlarının gösterildiği tüm sayfalar
Bu listeyi oluşturduktan sonra, robots.txt dosyanızda herhangi bir engellemenin bu sayfalara etki edip etmediğini kontrol etmek çok daha kolay olacaktır.

4. Robots.txt Üreticisini Bilinçli Kullanın


Üreticiden elde ettiğiniz robots.txt dosyasını olduğu gibi kopyalayıp yapıştırmadan önce her bir satırı dikkatlice gözden geçirin. Özellikle `Disallow: /` gibi genel engelleme kurallarından kaçının. Eğer bir üretici size bu tür bir kural öneriyorsa, sitenizin tamamen Google'dan engellenme riskini taşıdığınızı unutmayın. Her zaman en minimal robots.txt dosyasıyla başlayın (genellikle sadece site haritası direktifi içerir) ve yalnızca kesinlikle engellemeniz gereken URL'ler için `Disallow` kuralları ekleyin.

5. İzin Verme (Allow) Direktifini Etkili Kullanın


`Allow` direktifi, genel bir `Disallow` kuralını belirli durumlar için geçersiz kılmak için harika bir araçtır. Örneğin, sitenizde `/kullanici/` adında bir klasörünüz var ve bunun içindeki tüm profillerin indekslenmesini istemiyorsunuz, ancak belirli bir `/kullanici/public/` klasörünün içindeki sayfaların görünür olmasını istiyorsunuz. Şu şekilde kullanabilirsiniz:
```
User-agent: *
Disallow: /kullanici/
Allow: /kullanici/public/
```
Bu örnekte, tüm `/kullanici/` dizini engellenirken, `/kullanici/public/` içindeki sayfalar taranabilir durumda kalır. Allow direktifi, hassas bir kontrol sağlayarak, geniş engellemelerin olumsuz etkilerini azaltmanıza yardımcı olur.

6. Google Search Console'u Aktif Kullanın


Google Search Console, robots.txt dosyanızı yönetmek ve sitenizin Google'daki performansını izlemek için olmazsa olmaz bir araçtır.
* Robots.txt Test Aracı: Search Console içinde yer alan "Ayarlar" altındaki "Tarama" bölümünde bulunan robots.txt test aracı, robots.txt dosyanızdaki belirli bir URL'yi girerek Googlebot'un o URL'yi tarayıp tarayamayacağını anında kontrol etmenizi sağlar. Bu araç, önemli sayfalarınızın yanlışlıkla engellenip engellenmediğini tespit etmek için paha biçilmezdir.
* URL Denetleme Aracı: Bu araç ile herhangi bir URL'nin Google tarafından nasıl görüldüğünü, ne zaman tarandığını ve dizine eklenip eklenmediğini kontrol edebilirsiniz. Bir sayfanın neden dizine eklenmediğini anlamak için harika bir başlangıç noktasıdır.
* Dizin Kapsamı Raporu: Bu rapor, sitenizdeki hangi sayfaların dizine eklendiğini, hangilerinin hata verdiğini veya hangilerinin farklı nedenlerle dizine eklenmediğini gösterir. "Engellenen Sayfalar" kategorisini düzenli olarak kontrol ederek, robots.txt kaynaklı beklenmedik engellemeleri hızla tespit edebilirsiniz.
Bu araçları düzenli olarak kullanmak, olası sorunları proaktif bir şekilde belirlemenizi ve çözmenizi sağlar.

7. Düzenli Denetim ve Güncelleme


Web siteniz zamanla gelişir. Yeni sayfalar eklenir, eski sayfalar kaldırılır veya URL yapıları değişebilir. Her büyük site değişikliğinden veya yeni bir içerik türü eklediğinizde robots.txt dosyanızı gözden geçirin. Eskiden engellemeniz gereken bir klasör şimdi halka açık ve dizine eklenmesi gereken içerikler barındırıyor olabilir. Veya tam tersi, daha önce önemsiz görünen bir kısım şimdi hassas veriler içeriyor olabilir. Robots.txt dosyanızı sitenizin güncel yapısına uygun tutmak, uzun vadeli SEO başarınız için kritik öneme sahiptir.

Sık Yapılan Hatalar ve Kaçınma Yolları


* Gereksiz JavaScript/CSS Engellemeleri: Modern web sitelerinin düzgün çalışması ve görsel olarak çekici olması için JavaScript ve CSS dosyalarına ihtiyacı vardır. Googlebot, sayfayı bir kullanıcı gibi render ettiği için bu dosyaları görmesi önemlidir. Eğer robots.txt ile bu dosyaları engellerseniz, Google sayfanızın düzenini ve kullanıcı deneyimini doğru bir şekilde anlayamayabilir, bu da SEO performansınızı olumsuz etkileyebilir. Önemli JS/CSS dosyalarını asla engellemeyin.
* Dizinlerin Tamamını Engellemek: `Disallow: /urunler/` gibi genel bir kural, tüm ürün sayfalarınızın Google'dan engellenmesi anlamına gelir. Eğer bu dizin altında dizine eklenmesi gereken sayfalarınız varsa, bunun yerine `Allow` direktifini akıllıca kullanarak spesifik engellemeler yapın.
* Robots.txt ile Noindex'i Karıştırmak: Unutmayın, robots.txt bir *tarama* yönergesidir, bir *dizin oluşturma* yönergesi değildir. Bir sayfanın arama sonuçlarında görünmesini kesin olarak engellemek istiyorsanız, o sayfaya `meta name="robots" content="noindex"` etiketini eklemelisiniz. Engellenen bir sayfa Google tarafından nadiren de olsa dizine eklenebilir (ancak içeriği okunmaz), bu da istenmeyen durumlar yaratabilir.
* Google Search Console Uyarılarını Görmezden Gelmek: Google, robots.txt dosyanızda bir sorun veya sitenizde bir tarama sorunu tespit ettiğinde Search Console üzerinden size bildirimler gönderir. Bu uyarılara hızlıca yanıt vermek, potansiyel zararı en aza indirmenizi sağlar.

AdSense Gelirleriniz İçin Robots.txt Yönetiminin Önemi


Google AdSense, web sitenizin içeriğiyle alakalı reklamlar göstererek gelir elde etmenizi sağlayan bir platformdur. AdSense'in düzgün çalışabilmesi için sitenizin sayfalarının Google tarafından taranabilir, anlaşılabilir ve dizine eklenebilir olması gerekir. Eğer önemli bir sayfanız robots.txt tarafından engellenirse:
* Google Reklamları Gösteremez: Googlebot, reklam yerleştireceği sayfayı ziyaret edemediği için içeriğini analiz edemez ve dolayısıyla alakalı reklamları gösteremez.
* Trafik Kaybı: Engellenen sayfalar arama sonuçlarında görünmeyeceği için potansiyel ziyaretçileri kaybedersiniz. Daha az ziyaretçi, daha az reklam gösterimi ve daha az tıklama demektir, bu da doğrudan AdSense geliri kaybına yol açar.
* Kullanıcı Deneyimi: Tarama engelleri, sitenizin genel tarama bütçesini de etkileyebilir. Google botlarının değerli zamanını engellenen veya önemsiz sayfalarda harcaması yerine, önemli sayfalarınıza odaklanmasını istersiniz.
Bu nedenle, robots.txt dosyanızın doğru yapılandırılması, sadece SEO için değil, aynı zamanda AdSense yayıncısı olarak gelir potansiyelinizi korumak ve artırmak için de hayati bir öneme sahiptir.

Sonuç


Bir robots.txt üreticisi kullanmak, hızlı bir başlangıç noktası olabilir ancak asla bir otomasyon çözümü olarak görülmemelidir. Sitenizin görünürlüğünü ve AdSense gelirinizi riske atmamak için, üretilen robots.txt dosyasını her zaman dikkatle incelemeli, sitenizin özel ihtiyaçlarına göre düzenlemeli ve Google Search Console gibi araçlarla düzenli olarak denetlemelisiniz. Temel robots.txt sözdizimini anlamak, kritik sayfalarınızı belirlemek ve `Allow` direktifini etkili kullanmak, sitenizin Google'dan yanlışlıkla engellenmesini önlemenin anahtarlarıdır. Unutmayın, dijital dünyada görünürlük her şeydir ve bu görünürlüğü sağlamak sizin elinizdedir.

Ezgi Avcı

Yazar: Ezgi Avcı

Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.

Diğer Makaleler

Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Web Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NWeb Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeYonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Yonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Gereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciGereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizYanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Yanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Robotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimRobotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Robotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Yanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorYanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimRobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz ARobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz AWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosBelirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Belirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Yonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobYonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil KontOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil KontE Ticaret Siteniz Icin Guvenli Ve Dogru Robotstxt Dosyasini Nasil OlusE Ticaret Siteniz Icin Guvenli Ve Dogru Robotstxt Dosyasini Nasil Olus