Google Search Consoledaki Robotstxt Tarafindan Engellendi Hatasini Coz
Google Search Consoledaki Robotstxt Tarafindan Engellendi Hatasini Coz

Google Search Console'daki "robots.txt tarafından engellendi" hatasını çözmek için generator ile yeni bir dosya oluşturma.


Web sitenizin arama motorlarında başarılı bir şekilde indekslenmesi ve sıralanması için teknik SEO'nun temel taşlarından biri olan robots.txt dosyası hayati öneme sahiptir. Google Search Console'da "robots.txt tarafından engellendi" hatasıyla karşılaşmak, sitenizin görünürlüğü ve potansiyel organik trafik açısından ciddi bir sorun teşkil eder. Bu hata, arama motoru botlarının (örneğin Googlebot) sitenizdeki belirli sayfalara veya dizinlere erişiminin engellendiğini gösterir. Bu durum, yanlış yapılandırılmış bir robots.txt dosyasından kaynaklanabilir ve sitenizin önemli bölümlerinin arama sonuçlarından kaybolmasına yol açabilir. Neyse ki, bu sorunu çözmek ve sitenizin doğru bir şekilde taranmasını sağlamak için modern araçlar, özellikle bir Robots Txt Retici (Generator) kullanarak yeni ve doğru bir robots.txt dosyası oluşturmak oldukça basit ve etkili bir yöntemdir. Bu makalede, robots.txt dosyasının öneminden, bu hatanın nedenlerinden ve bu hatayı kalıcı olarak gidermek için bir generator ile nasıl yeni bir dosya oluşturulup uygulanacağından bahsedeceğiz.

robots.txt Dosyasının Önemi ve İşlevi


robots.txt dosyası, bir web sitesinin kök dizininde bulunan ve arama motoru botlarına sitenizdeki hangi sayfaları veya bölümleri tarayıp indekslemeleri gerektiğini bildiren basit bir metin dosyasıdır. Bu dosya, site yöneticilerine sitenin belirli alanlarını arama motoru sonuçlarından gizleme veya botların erişimini kısıtlama yeteneği sunar. Örneğin, yönetim paneli sayfaları, test ortamları, kullanıcı profilleri veya hassas veriler içeren dizinler gibi arama motoru sonuçlarında görünmesini istemediğiniz içerikleri bu dosya aracılığıyla engelleyebilirsiniz.
Bu dosyanın temel işlevi, arama motoru botlarının sitenizde gereksiz yere zaman harcamasını engellemek ve böylece sitenizin tarama bütçesini daha verimli kullanmasını sağlamaktır. Tarama bütçesi, arama motorlarının sitenizde belirli bir süre içinde tarayabileceği sayfa sayısını ifade eder. Yanlış yapılandırılmış bir robots.txt dosyası, bu tarama bütçesinin yanlış alanlarda harcanmasına veya daha kötüsü, önemli sayfaların hiç taranamamasına neden olabilir. Dolayısıyla, doğru bir robots.txt dosyası, hem site performansınızı optimize etmenize hem de SEO uyumlu bir yapı oluşturmanıza yardımcı olur.

"robots.txt tarafından engellendi" Hatası Nedir ve Neden Ortaya Çıkar?


Google Search Console'da karşılaşılan "robots.txt tarafından engellendi" hatası, adından da anlaşılacağı gibi, Googlebot'un veya diğer arama motoru botlarının, sitenizdeki belirli bir URL'yi robots.txt dosyasında tanımlanan kurallar nedeniyle tarayamadığını gösterir. Bu hata, sitenizin arama sonuçlarında görünürlüğünü doğrudan etkiler ve kullanıcıların bu sayfalara arama motorları üzerinden ulaşmasını engeller.

Hatayı Tanımlama


Bu hata genellikle Google Search Console'daki "Kapsam" raporunda, "Dışlananlar" bölümünün altında listelenir. Hatanın detaylarına indiğinizde, hangi URL'lerin robots.txt tarafından engellendiğini ve bu engellemenin nedenini görebilirsiniz. Eğer engellenen sayfalar sitenizin ana içeriğini oluşturuyorsa veya ziyaretçilerinizin erişmesini istediğiniz önemli sayfalarsa, bu durum hemen düzeltilmesi gereken kritik bir sorundur.

Olası Hata Kaynakları


Bu hatanın ortaya çıkmasının birkaç yaygın nedeni vardır:
* Yanlışlıkla Tüm Siteyi Engelleme: En sık görülen nedenlerden biri, genellikle geliştirme aşamasında "Disallow: /" gibi bir kuralın eklenmesi ve canlıya geçtikten sonra kaldırılmasının unutulmasıdır. Bu kural, tüm sitenin taranmasını engeller.
* Eski veya Hatalı Kurallar: Zamanla sitenizde yapılan değişiklikler, eski robots.txt kurallarını geçersiz veya hatalı hale getirebilir. Örneğin, bir dizinin adını değiştirdiğinizde, eski dizini engellemeye devam eden bir kural sorun yaratabilir.
* Çakışan Direktifler: Bazı durumlarda, bir sayfa için hem `Allow` hem de `Disallow` direktifleri bulunabilir. robots.txt kurallarının yorumlanması karmaşık olabilir ve bu tür çakışmalar beklenmedik engellemelere yol açabilir.
* CMS Eklentileri veya Temaların Neden Olduğu Sorunlar: Özellikle WordPress gibi içerik yönetim sistemlerinde, bazı SEO eklentileri veya temalar, otomatik olarak robots.txt dosyasında değişiklikler yapabilir ve yanlışlıkla önemli sayfaları engelleyebilir.
* robots.txt Dosyasının Yanlış Yere Konulması: robots.txt dosyası mutlak suretle sitenizin kök dizininde yer almalıdır (örn: `https://www.siteadi.com/robots.txt`). Yanlış bir konuma yerleştirilmesi, arama motorlarının onu bulamamasına ve varsayılan olarak her şeyi taramaya çalışmasına veya bazı durumlarda hiç bir şeyi tarayamamasına neden olabilir.

Robots.txt Dosyasını Gözden Geçirme ve Sorun Giderme Adımları


"robots.txt tarafından engellendi" hatasıyla karşılaştığınızda, ilk adım mevcut robots.txt dosyanızı detaylı bir şekilde incelemektir.

Mevcut robots.txt Dosyasını Kontrol Etme


Sitenizin `https://www.siteadi.com/robots.txt` adresine giderek mevcut robots.txt dosyanızı görüntüleyebilirsiniz. Dosya içeriğini açtığınızda, `User-agent` direktiflerini (örneğin `User-agent: *` tüm botları, `User-agent: Googlebot` sadece Googlebot'u hedefler) ve ardından gelen `Disallow` (engelle) ve `Allow` (izin ver) direktiflerini dikkatlice incelemelisiniz.
Özellikle şu kurallara dikkat edin:
* `Disallow: /`: Bu kural tüm sitenizi engeller. Eğer sitenizin taranmasını istiyorsanız, bu kuralın olmaması veya yorum satırı yapılması gerekir.
* Engellediğiniz belirli dizinlerin veya sayfaların gerçekten engellenmesi gereken içerikler olup olmadığını kontrol edin.
* `Allow` kurallarının `Disallow` kurallarını geçersiz kılıp kılmadığını anlamaya çalışın. Daha spesifik `Allow` kuralları, daha genel `Disallow` kurallarını geçersiz kılabilir.

Google Search Console Araçlarını Kullanma


Google Search Console, robots.txt hatalarını tespit etmede ve gidermede en güçlü aracınızdır.
* URL Denetleme Aracı: Bu araçla, engellendiğini düşündüğünüz herhangi bir URL'yi girerek Google'ın o sayfayı nasıl gördüğünü, robots.txt kurallarının taramayı engelleyip engellemediğini ve sayfanın indekslenmeye uygun olup olmadığını anında kontrol edebilirsiniz.
* robots.txt Test Cihazı (legacy tool, ancak hala mantığı geçerli): Search Console'un eski sürümünde bulunan bu araç, doğrudan robots.txt dosyanızdaki hataları tespit etmenize ve çeşitli URL'ler için kuralların nasıl çalıştığını test etmenize olanak tanır. Yeni sürümde bu işlevsellik daha çok URL Denetleme aracına entegre edilmiştir.
Bu araçlar, hatanın kökenini anlamanıza ve yeni bir dosya oluşturmadan önce neyin yanlış olduğunu belirlemenize yardımcı olur.

Yeni Bir robots.txt Dosyası Oluşturmak İçin Robots Txt Retici Kullanımı


Mevcut robots.txt dosyanızda bir sorun olduğunu tespit ettiyseniz veya sıfırdan başlamak istiyorsanız, bir Robots Txt Retici kullanmak en güvenli ve en verimli yoldur.

Neden Generator Kullanmalıyız?


Manuel olarak robots.txt dosyası oluşturmak, özellikle sintaks hatalarına veya çakışan kurallara neden olma potansiyeli taşır. Bir generator, bu riskleri ortadan kaldırır ve aşağıdakileri sağlar:
* Doğru Format ve Sintaks: Generator'lar, robots.txt dosyasının standartlara uygun formatta ve doğru sintaks ile oluşturulmasını garanti eder.
* Hızlı ve Kolay Çözüm: Karmaşık kuralları elle yazmak yerine, kullanıcı dostu arayüzler sayesinde dakikalar içinde doğru bir dosya oluşturabilirsiniz.
* Özelleştirilebilir Seçenekler: Çoğu generator, tüm botlara izin verme, belirli dizinleri engelleme, belirli dosya türlerini dışlama ve site haritası (Sitemap) yolunu ekleme gibi çeşitli özelleştirme seçenekleri sunar.
* Hata Azaltma: İnsan hatasını en aza indirir, bu da yanlışlıkla önemli sayfaların engellenmesini önler.

Robots Txt Retici Nasıl Çalışır?


Bir Robots Txt Retici genellikle size adım adım rehberlik eder:
1. Varsayılan Erişim: İlk olarak, tüm arama motoru botlarının sitenizi taramasına izin verip vermeyeceğinizi seçersiniz (`User-agent: *` ve `Disallow:` boş bırakılır). Genellikle varsayılan olarak tam erişime izin vermek en iyisidir.
2. Engellenecek Dizinler/Sayfalar: Daha sonra, sitenizdeki hangi dizinleri veya sayfaları engellemek istediğinizi belirtirsiniz. Örneğin:
* `/wp-admin/` (WordPress yönetici paneli)
* `/cgi-bin/` (sunucu betiklerinin bulunduğu dizinler)
* `/arama-sonuclari/` (iç arama sonuçları sayfaları)
* `/test-sayfasi.html` (geliştirme aşamasındaki sayfalar)
Bu kısımları `Disallow: /dizinadi/` şeklinde eklersiniz.
3. İzin Verilecek Özel Alanlar: Nadiren de olsa, engellenmiş bir dizin içindeki belirli bir dosyaya veya alt dizine izin vermek isteyebilirsiniz. Bu durumda `Allow: /dizinadi/alt-dizin/` kuralını kullanabilirsiniz.
4. Site Haritası Ekleme: En önemli adımlardan biri, XML site haritasınızın yolunu belirtmektir. Bu, arama motorlarının sitenizdeki tüm önemli sayfaları keşfetmesine yardımcı olur. Örneğin: `Sitemap: https://www.siteadi.com/sitemap.xml`.
* Detaylı bilgi için bu makalemizi inceleyebilirsiniz: /makale.php?sayfa=xml-sitemap-nedir-nasil-olusturulur
5. Dosyayı Oluşturma: Tüm tercihlerinizi girdikten sonra, generator size nihai robots.txt dosyasının içeriğini sunar ve genellikle bir `.txt` dosyası olarak indirmenizi sağlar.
Bu adımları izleyerek, sitenizin ihtiyaçlarına uygun, temiz ve SEO uyumlu bir robots.txt dosyası oluşturabilirsiniz.

Generator Kullanırken Dikkat Edilmesi Gerekenler


* Önemli Sayfaları Engellemeyin: Generator'ı kullanırken en kritik nokta, arama motorlarında görünmesini istediğiniz herhangi bir sayfayı yanlışlıkla engellemediğinizden emin olmaktır. Her bir `Disallow` kuralını dikkatlice kontrol edin.
* Sitemap Doğru Mu? Site haritası yolunuzun doğru ve güncel olduğundan emin olun. Hatalı bir site haritası yolu, arama motorlarının sitenizi verimli bir şekilde taramasını engelleyebilir.
* Gereksiz Kısıtlamalardan Kaçının: Yalnızca gerçekten gizlenmesi gereken sayfaları veya dizinleri engelleyin. Aşırı kısıtlayıcı bir robots.txt dosyası, sitenizin arama sonuçlarındaki performansını olumsuz etkileyebilir.
* robots.txt, güvenlik aracı değildir: robots.txt dosyası bir güvenlik aracı değildir. Engellediğiniz sayfaları URL'yi doğrudan bilen herkes veya başka bir yerden gelen bağlantılarla ziyaret edebilir. Hassas bilgileri gerçekten korumak için, bu sayfaları şifre ile korumalı veya sunucu düzeyinde erişim kısıtlamaları uygulamalısınız.

Yeni robots.txt Dosyasını Yükleme ve Google'a Bildirme


Yeni robots.txt dosyanızı oluşturduktan sonra, onu sitenize uygulamanız ve Google'a değişiklikleri bildirmeniz gerekir.

Dosyayı Sunucuya Yükleme


1. Dosyayı Kaydetme: Generator'dan indirdiğiniz dosyayı `robots.txt` adıyla kaydedin. Dosya adının küçük harflerle ve tam olarak bu şekilde olması zorunludur.
2. Kök Dizinine Yükleme: Bu dosyayı web sitenizin ana dizinine (root directory) yüklemeniz gerekir. Bu genellikle `public_html` veya `www` klasörüdür.
* FTP/SFTP: Bir FTP veya SFTP istemcisi (örneğin FileZilla) kullanarak sunucunuza bağlanabilir ve dosyayı kök dizine yükleyebilirsiniz.
* cPanel/Plesk Dosya Yöneticisi: Hosting sağlayıcınızın kontrol panelinde (cPanel, Plesk vb.) bulunan Dosya Yöneticisi aracını kullanarak da dosyayı kolayca yükleyebilirsiniz.
* CMS Paneli: Bazı içerik yönetim sistemleri (CMS), eklentiler aracılığıyla robots.txt dosyasını doğrudan panelden düzenleme veya yükleme olanağı sunar.
Dosyayı yükledikten sonra, tarayıcınızdan `https://www.siteadi.com/robots.txt` adresine giderek yeni dosyanın başarıyla yüklendiğini ve içeriğinin doğru olduğunu doğrulayın.

Google Search Console'da Değişiklikleri Bildirme


Yeni robots.txt dosyanızı yükledikten sonra, Google'ın bu değişiklikleri en kısa sürede fark etmesini sağlamak önemlidir.
1. Google Search Console'a Giriş Yapın: Sitenizin Search Console paneline gidin.
2. URL Denetleme Aracını Kullanın: "robots.txt tarafından engellendi" hatası veren bir veya iki URL'yi URL Denetleme aracına girin. Canlı test yaparak, yeni robots.txt dosyanızın bu URL'lerin artık engellenmediğini gösterdiğinden emin olun.
3. Tarama İstatistikleri Raporu: "Ayarlar" altında yer alan "Tarama istatistikleri" raporunu düzenli olarak kontrol edin. Bu rapor, Googlebot'un sitenizi ne sıklıkta taradığını ve robots.txt kaynaklı hataların zamanla azalıp azalmadığını gösterir.
4. Sabırlı Olun: Google'ın robots.txt değişikliklerini fark etmesi ve sitenizi buna göre yeniden taraması biraz zaman alabilir (birkaç saatten birkaç güne kadar). Değişiklikler uygulandıktan sonra hata raporlarının temizlenmesi için beklemek önemlidir.

Sonuç ve Önemli İpuçları


"Google Search Console'daki "robots.txt tarafından engellendi" hatası, web sitenizin arama motorlarındaki görünürlüğü için ciddi bir tehdit oluşturur. Ancak, doğru araçları ve bilgiyi kullanarak bu sorun kolayca çözülebilir. Bir Robots Txt Retici kullanmak, manuel hatalardan kaçınarak hızlı, güvenilir ve arama motoru optimizasyonu standartlarına uygun bir robots.txt dosyası oluşturmanın en etkili yoludur.
Unutmayın ki robots.txt dosyası dinamik bir araçtır. Sitenize yeni sayfalar, dizinler eklediğinizde veya mevcut yapıda değişiklikler yaptığınızda, robots.txt dosyanızı da gözden geçirmeniz gerekebilir. Düzenli olarak Google Search Console'u kontrol etmek ve robots.txt dosyanızı güncel tutmak, sitenizin sağlıklı bir şekilde taranmasını ve arama motoru sonuçlarında hak ettiği yeri almasını sağlar. Bu sayede, sitenizin potansiyelini tam olarak kullanabilir ve daha fazla organik ziyaretçi çekebilirsiniz. Unutmayın, doğru yapılandırılmış bir robots.txt dosyası, başarılı bir dijital pazarlama stratejisinin temel direklerinden biridir.
Diğer teknik SEO sorunları için bu makalemizi de okuyabilirsiniz: /makale.php?sayfa=teknik-seo-hatalari-nasil-cozulur

Ezgi Avcı

Yazar: Ezgi Avcı

Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.

Diğer Makaleler

Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Web Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NWeb Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeYonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Yonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Gereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciGereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizYanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Yanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Robotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimRobotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Robotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Yanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorYanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimRobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz ARobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz AWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosBelirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Belirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Yonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobYonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil KontOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil Kont