Googlebotun Belirli Klasorleri Taramasini Nasil Engellersiniz Diger Sa
Googlebotun Belirli Klasorleri Taramasini Nasil Engellersiniz Diger Sa

Googlebot'un Belirli Klasörleri Taramasını Nasıl Engellersiniz (Diğer Sayfaları Etkilemeden)?


Dijital dünyada varlık gösteren her web sitesi sahibi için arama motorlarıyla etkili bir iletişim kurmak hayati önem taşır. Bu iletişimin en temel araçlarından biri de robots.txt dosyasıdır. Özellikle Google AdSense yayıncıları ve genel olarak SEO uzmanları için, Googlebot'un sitenizdeki hangi içeriği tarayabileceğini veya hangi içeriği göz ardı etmesi gerektiğini yönetmek, hem sitenizin performansını artırmak hem de potansiyel politika ihlallerinden kaçınmak adına kritik bir beceridir. Bu kapsamlı rehberde, Googlebot'un belirli klasörleri diğer sayfaları etkilemeden nasıl taramasını engelleyeceğinizi detaylı bir şekilde inceleyeceğiz. Amacımız, sitenizin değerini artırırken aynı zamanda sunucu kaynaklarınızı optimize etmektir.
Web siteniz büyüdükçe ve içerik çeşitlendikçe, her sayfanın arama motorları tarafından indekslenmesini istemeyebilirsiniz. Yönetici panelleri, hassas kullanıcı verileri içeren klasörler, geliştirme aşamasındaki sayfalar veya düşük kaliteli, yinelenen içerikler, sitenizin genel SEO değerini düşürebilir ve hatta AdSense program politikalarıyla çelişebilir. İşte tam bu noktada robots.txt dosyası devreye girerek, Googlebot ve diğer arama motoru örümceklerine yol gösterme işlevini üstlenir.

Neden Belirli Klasörleri Engellemelisiniz?


Googlebot'un sitenizdeki her klasörü veya sayfayı taramasını engellemek için birden fazla geçerli neden bulunmaktadır. Bu nedenler genellikle site performansı, güvenlik, gizlilik ve arama motoru optimizasyonu hedefleriyle örtüşür.

AdSense Politikaları Uyumluluğu


Google AdSense yayıncısıysanız, politikalarınızı iyi bilmeniz ve buna uygun hareket etmeniz gerekmektedir. Düşük kaliteli, yetersiz içeriğe sahip veya politika ihlali teşkil eden sayfaların arama motoru tarafından indekslenmesi, sitenizin genel AdSense onayını veya reklam gösterimlerini olumsuz etkileyebilir. Örneğin, bir test sayfası, kullanıcıların kişisel bilgilerini içeren bir form sayfası veya içerik açısından zayıf bir dizin sayfasına reklam yerleştirilmesi AdSense politikalarına aykırı olabilir. Bu tür klasörlerin Googlebot tarafından taranmasını engellemek, olası politika ihlallerinin önüne geçerek reklam gelirlerinizin sürekliliğini sağlamanıza yardımcı olur. Bu, aynı zamanda sitenizin genel kalitesini Google'ın gözünde yüksek tutmanın da bir yoludur.

Tarama Bütçesi Optimizasyonu


Her web sitesinin, Googlebot'un sitenizde ayırdığı belirli bir "tarama bütçesi" vardır. Özellikle büyük siteler veya çok sık güncellenen siteler için bu bütçeyi akıllıca kullanmak, arama motorlarının en önemli ve değerli içeriğinizi daha sık ziyaret etmesini sağlamak anlamına gelir. Düşük değerli veya taramaya gerek olmayan klasörleri engellemek, tarama bütçesinizi daha verimli kullanmanıza olanak tanır. Böylece Googlebot, zamanını sitenizin en kritik sayfalarına ayırır ve bu da sitenizin arama sonuçlarındaki görünürlüğünü artırır. Bu optimizasyon, sunucu yükünü de hafifletir ve kaynaklarınızı daha önemli işlevler için serbest bırakır.

Gizlilik ve Güvenlik Endişeleri


Web sitenizde hassas veriler barındıran klasörler olabilir. Bunlar genellikle yönetici panelleri (/admin, /wp-admin), geçici dosyaların bulunduğu klasörler (/temp), kullanıcıların özel bilgilerini içeren alanlar veya test ortamları (/dev, /staging) olabilir. Bu tür klasörlerin arama motorları tarafından indekslenmesi, potansiyel güvenlik açıklarına veya veri ihlallerine yol açabilir. Robots.txt ile bu klasörleri engellemek, bunların arama sonuçlarında görünmesini engeller ve dolayısıyla kötü niyetli kişilerin bu alanlara ulaşmasını zorlaştırır. Ancak unutulmamalıdır ki `robots.txt` sadece bir direktiftir; tam bir güvenlik sağlamaz. Gerçek güvenlik için güçlü parolalar, erişim kısıtlamaları ve diğer güvenlik önlemleri şarttır.

Düşük Kaliteli veya Yinelenen İçerik


Web sitenizde otomatik olarak oluşturulan sayfalar, filtreleme sonuçları, sıralama seçenekleri veya arşiv sayfaları gibi çok sayıda düşük kaliteli veya başka bir sayfayla neredeyse aynı içeriğe sahip sayfalar bulunabilir. Bu tür içeriklerin arama motorları tarafından indekslenmesi, sitenizin genel kalite algısını düşürebilir ve "yinelenen içerik" cezasına yol açmasa bile, sitenizin sıralamasını olumsuz etkileyebilir. Bu klasörleri engellemek, arama motorlarının yalnızca benzersiz ve değerli içeriğinize odaklanmasını sağlar.

Robots.txt Dosyasını Anlamak


Googlebot'un belirli klasörleri taramasını engellemenin temel aracı, web sitenizin kök dizininde bulunan robots.txt dosyasıdır. Bu dosya, adından da anlaşılacağı gibi, web robotları (örümcekler, tarayıcılar) için bir talimat dosyasıdır.

Nedir ve Nerede Bulunur?


`robots.txt`, web sitesi dizininizin en üst seviyesinde, yani ana kök dizinde bulunan basit bir metin dosyasıdır. Örneğin, `www.siteniz.com/robots.txt` adresinden erişilebilir olmalıdır. Bu dosya, bir web sunucusuna bağlanan herhangi bir robotun, o sunucudaki hangi URL'lere erişmemesi gerektiğini bildirir.

Nasıl Çalışır?


`robots.txt` dosyası, "User-agent" ve "Disallow" yönergelerini kullanarak çalışır.
* User-agent: Bu yönerge, talimatların hangi arama motoru robotu için geçerli olduğunu belirtir. Örneğin, `User-agent: Googlebot` yalnızca Google'ın örümceği için geçerli olurken, `User-agent: *` tüm arama motoru örümcekleri için geçerli anlamına gelir.
* Disallow: Bu yönerge, belirli bir dosyanın, klasörün veya dosya grubunun taranmasını engellemek için kullanılır. Engellenmek istenen yol, sitenin kök dizinine göre belirtilir.

Önemli Bir Uyarı: Robots.txt Gizlilik Sağlamaz!


En önemli noktalardan biri, robots.txt dosyasının bir güvenlik veya gizlilik mekanizması olmadığıdır. Bu dosya herkese açıktır ve herhangi biri tarafından görüntülenebilir. `robots.txt` sadece iyi niyetli arama motoru örümceklerine bir tavsiye sunar. Kötü niyetli botlar veya doğrudan URL'ye erişen kullanıcılar bu talimatları görmezden gelebilir. Bu nedenle, gerçekten hassas olan içeriği şifrelemek, parola koruması eklemek veya `.htaccess` gibi sunucu tabanlı erişim kontrol mekanizmaları kullanmak esastır. `robots.txt` ile engellenen bir sayfa, yine de başka bir yerden bağlantı alıyorsa veya başka bir yolla keşfedilirse, indekslenebilir. Eğer bir sayfanın arama sonuçlarında görünmemesini ve taranmamasını kesinlikle istiyorsanız, `noindex` meta etiketi veya HTTP X-Robots-Tag kullanmayı düşünmelisiniz.

Belirli Klasörleri Engellemek İçin Robots.txt Kullanımı


Şimdi gelelim `robots.txt` dosyasını kullanarak belirli klasörleri Googlebot'un taramasını nasıl engelleyeceğimize dair pratik örneklere.

Tek Bir Klasörü Engelleme


En yaygın senaryo, sitenizdeki tek bir klasörü veya dizini engellemektir. Örneğin, tüm yönetici paneli dosyalarınızın `/admin/` klasöründe olduğunu varsayalım.
```
User-agent: *
Disallow: /admin/
```
Bu örnekte:
* `User-agent: *` tüm arama motoru botlarına bu direktifi uygulamasını söyler.
* `Disallow: /admin/` ise sitenizin kök dizinindeki `/admin/` klasörünün içindeki tüm dosya ve alt klasörlerin taranmasını engeller. Sondaki eğik çizgi (/) önemlidir; bu, "admin" ile başlayan tüm dosya adlarını değil, sadece bir klasör olan "/admin/" dizinini hedeflediğinizi belirtir.

Birden Fazla Klasörü Engelleme


Birden fazla klasörü engellemek isterseniz, her biri için ayrı bir `Disallow` yönergesi eklemeniz yeterlidir.
```
User-agent: *
Disallow: /admin/
Disallow: /test-sayfalari/
Disallow: /gecici-dosyalar/
```
Bu yapı, belirtilen her bir klasörün ayrı ayrı taranmasını engelleyecektir.

Tüm Arama Motorları İçin Engelleme vs. Belirli Botlar İçin Engelleme


Yukarıdaki örneklerde `User-agent: *` kullandık, bu da direktifin tüm robotlar için geçerli olduğu anlamına gelir. Ancak bazen sadece Googlebot'un veya belirli bir arama motoru botunun belirli bir klasörü taramasını engellemek isteyebilirsiniz.
Sadece Googlebot için engellemek:
```
User-agent: Googlebot
Disallow: /ozel-klasor/
```
Sadece Bing'in botu (Bingbot) için engellemek:
```
User-agent: Bingbot
Disallow: /bing-icin-ozel-klasor/
```
Farklı botlar için farklı direktifler tanımlayabilirsiniz. Önemli olan, her `User-agent` direktifinin kendi `Disallow` direktiflerini izlemesidir.

Engellemeyi Geri Alma (İzin Verme)


Normalde, bir klasörü engellemeyi bırakmak için `robots.txt` dosyasından ilgili `Disallow` satırını kaldırmanız yeterlidir. Ancak, belirli bir dizini engellediğiniz halde, o dizinin içindeki belirli bir dosyaya izin vermek isteyebilirsiniz. Bu durumda `Allow` yönergesini kullanabilirsiniz. `Allow` yönergesi, `Disallow` yönergesinden sonra gelmelidir.
Örneğin, `/klasor_adi/` dizinindeki her şeyi engellemek ancak `/klasor_adi/onemli-sayfa.html` dosyasının taranmasına izin vermek için:
```
User-agent: *
Disallow: /klasor_adi/
Allow: /klasor_adi/onemli-sayfa.html
```
Bu, özellikle WordPress gibi CMS sistemlerinde ortaya çıkan, belirli bir genel kategori engellenirken, o kategorideki tek bir özel sayfanın indekslenmesinin istenebileceği durumlarda faydalı olabilir.

Yaygın Hatalar ve Dikkat Edilmesi Gerekenler


`Robots.txt` kullanımı basit görünse de, yapılan küçük hatalar sitenizin arama motorlarındaki görünürlüğünü ciddi şekilde etkileyebilir.
* Yanlış Klasör Yolları: Klasör yollarını doğru belirttiğinizden emin olun. Başlangıçtaki eğik çizgi (/) sitenizin kök dizinini ifade eder. Sondaki eğik çizgi, bir dizini mi yoksa bir dosyayı mı hedeflediğinizi ayırt etmenize yardımcı olur. Örneğin, `Disallow: /veriler` hem `/veriler` klasörünü hem de `/verilerim.html` gibi `veriler` ile başlayan dosyaları engelleyebilirken, `Disallow: /veriler/` yalnızca `/veriler/` klasörünü ve içindekileri engeller.
* Sitemap (Site Haritası) Kullanımı: `Robots.txt` ile engellediğiniz sayfaları site haritasınıza (`sitemap.xml`) eklemeyin. Bir sayfa `robots.txt` ile engellenmişse, arama motorları onu taramaz ve site haritasında yer alması anlamsızdır. Hatta bu durum, arama motorlarına çelişkili sinyaller göndererek karmaşıklığa neden olabilir. İlgili olarak, /makale.php?sayfa=sitemap-olusturma-rehberi gibi bir içeriğe bu noktadan bağlantı verilebilir.
* Yanlış Anlama: Gizlilik Aracı Değildir: Daha önce de belirtildiği gibi, `robots.txt` gizlilik aracı değildir. Hassas bilgileri yalnızca bu dosyaya güvenerek korumaya çalışmayın.
* Robots.txt Test Araçları: Google Search Console'da bulunan `robots.txt` test aracı, yaptığınız değişikliklerin doğru çalıştığından ve yanlışlıkla önemli sayfaları engellemediğinizden emin olmanızı sağlar. Yeni bir `Disallow` kuralı eklemeden önce bu aracı kullanarak test etmek, büyük sorunların önüne geçer. Bu, siteniz için bir 'Robots Txt Üretici' mantığıyla hareket etmenizi sağlar.
* URL Parametreleri: Dinamik olarak oluşturulan URL'leri (örneğin, `/urunler?renk=mavi&beden=L`) engellemek isterseniz, joker karakterleri (`*`) kullanabilirsiniz. Örneğin: `Disallow: /urunler?*renk=*`. Ancak bu konuda dikkatli olun, çünkü yanlış kullanım önemli sayfaların da engellenmesine yol açabilir. Bu tür durumlarda, Google Search Console'daki URL Parametre Aracı da faydalı olabilir.

Diğer Sayfaları Etkilemeden Engelleme Stratejileri


Amacımız, belirli klasörleri engellerken sitenizin diğer kısımlarının arama motoru görünürlüğünü olumsuz etkilememektir. Bunu sağlamak için şu stratejileri izleyebilirsiniz:
1. Açık ve Spesifik Direktifler: `Disallow` yönergelerinizi mümkün olduğunca spesifik tutun. Sadece engellemek istediğiniz klasör veya dosya yolunu tam olarak belirtin. Genel joker karakter kullanımlarından kaçının, aksi takdirde beklenmedik dizinler de etkilenebilir.
2. Düzenli Kontrol ve Test: `Robots.txt` dosyanızda bir değişiklik yaptığınızda, Google Search Console'daki `robots.txt` test aracını kullanın. Ayrıca, önemli sayfalarınızın hâlâ taranıp indekslendiğinden emin olmak için Search Console'daki URL Denetleme aracını da kullanın. Bu düzenli kontroller, yanlışlıkla yapılan hataları erkenden tespit etmenizi sağlar.
3. AdSense Politikalarına Hassas Yaklaşım: AdSense politikalarına uygunluk, yayıncılar için kritik öneme sahiptir. Düşük değerli veya politikalarla çelişen içeriği barındıran klasörleri proaktif bir şekilde engelleyerek olası ihlallerin önüne geçin. Bu, hem sitenizin itibarını korur hem de reklam gelirlerinizin sürdürülebilirliğini sağlar.
4. Noindex Kullanımını Düşünün: Eğer bir sayfanın arama sonuçlarında görünmesini kesinlikle istemiyorsanız ancak yine de taranabilir olmasını istiyorsanız (örneğin, dahili bağlantı değerinin akmasını sağlamak veya kullanıcıların doğrudan erişmesine izin vermek), `robots.txt` yerine `noindex` meta etiketini veya X-Robots-Tag HTTP başlığını kullanmayı düşünün. `noindex` direktifi, arama motoruna sayfayı indekslememesini söylerken, `robots.txt` taramasını engeller. Bazen her ikisine de ihtiyaç duyulabilir. Örneğin, hassas kullanıcı verileri içeren bir form sayfasını arama sonuçlarından tamamen çıkarmak için `/makale.php?sayfa=noindex-kullanimi-rehberi` gibi bir rehbere başvurmak isteyebilirsiniz.

Sonuç


Robots.txt dosyası, web sitenizin arama motoru optimizasyonunda ve genel yönetiminde güçlü bir araçtır. Belirli klasörlerin Googlebot tarafından taranmasını doğru bir şekilde engelleyerek, tarama bütçesinizi optimize edebilir, hassas verilerinizi koruyabilir ve sitenizin genel SEO performansını artırabilirsiniz. Ayrıca, AdSense politikalarına uygunluğu sağlayarak olası ihlallerin önüne geçmek, sürdürülebilir bir reklam geliri elde etmek için kritik öneme sahiptir.
Unutmayın, `robots.txt` bir öneri mekanizmasıdır ve tamamen bir güvenlik önlemi değildir. Her zaman net, spesifik direktifler kullanın ve yaptığınız değişiklikleri test edin. Bu sayede, sitenizin değerini en üst düzeye çıkarırken, istenmeyen içeriğin arama motorları tarafından göz ardı edilmesini sağlarsınız.

Ezgi Avcı

Yazar: Ezgi Avcı

Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.

Diğer Makaleler

Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Web Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NWeb Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeYonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Yonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Gereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciGereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizYanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Yanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Robotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimRobotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Robotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Yanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorYanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimRobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz ARobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz AWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosBelirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Belirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Yonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobYonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil KontOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil Kont