Tarama Butcemi Crawl Budget Optimize Etmek Icin Robotstxt Generator Il
Tarama Butcemi Crawl Budget Optimize Etmek Icin Robotstxt Generator Il

Tarama bütçemi (crawl budget) optimize etmek için robots.txt generator ile gereksiz sayfaları nasıl engellerim?


Web sitenizin arama motorları tarafından etkin bir şekilde keşfedilmesi ve dizine eklenmesi, çevrimiçi başarınızın temel taşlarından biridir. Özellikle Google gibi arama motorları, sitenizi taramak için belirli bir kaynak ve zaman ayırır; bu da tarama bütçesi olarak bilinir. Bu bütçeyi akıllıca yönetmek, sitenizin SEO performansını doğrudan etkiler ve AdSense gibi reklam platformlarından elde ettiğiniz geliri optimize etmenize yardımcı olur. Bu makalede, robots.txt generator kullanarak gereksiz sayfaları nasıl engelleyeceğinizi ve böylece tarama bütçenizi en verimli şekilde kullanacağınızı detaylı bir şekilde inceleyeceğiz.

Tarama Bütçesi Nedir ve Neden Önemlidir?


Tarama bütçesi, bir arama motorunun (örneğin Googlebot) belirli bir süre içinde bir web sitesinde tarayacağı URL sayısını ifade eder. Her sitenin boyutu, popülaritesi, güncellenme sıklığı ve hata oranı gibi faktörlere bağlı olarak belirlenen bir tarama bütçesi vardır. Google, bu bütçeyi sitenizin sunucu yanıt süresi, site hızı ve site haritası gibi unsurları da göz önünde bulundurarak belirler.
Peki, tarama bütçesi neden bu kadar önemli? Sitenizdeki binlerce hatta on binlerce sayfadan hangilerinin gerçekten değerli olduğunu Google'a anlatmanın bir yolu budur. Eğer tarama bütçeniz düşükse veya mevcut bütçeniz değeri düşük sayfaları tarayarak boşa harcanıyorsa, yeni veya önemli içeriğinizin arama motorları tarafından geç fark edilmesi veya hiç dizine eklenmemesi riskiyle karşılaşırsınız. Bu durum, organik trafiğinizin düşmesine yol açabilir. AdSense gibi platformlar için bu durum, potansiyel gelir kaybı anlamına gelir, çünkü reklam gösterimi için sayfaların taranmış ve dizine eklenmiş olması gerekir.
Büyük e-ticaret siteleri, haber portalları veya forumlar gibi dinamik ve sürekli güncellenen siteler için tarama bütçesi optimizasyonu hayati önem taşır. Bu tür sitelerde binlerce URL bulunabilir ve Google'ın her birini her gün taraması imkansızdır. Bu nedenle, Google'a hangi sayfaların daha öncelikli olduğunu belirtmek, sitenizin genel dizinleme hızını ve kalitesini artırır.

Robots.txt'nin Optimizasyondaki Rolü


`robots.txt` dosyası, sitenizin kök dizininde bulunan ve arama motoru robotlarına sitenizi nasıl tarayacakları konusunda talimatlar veren basit bir metin dosyasıdır. Bu dosya, belirli sayfaların, dizinlerin veya dosya türlerinin taranmasını engelleyerek Googlebot ve diğer arama motoru örümceklerinin enerjilerini daha değerli içeriklere yönlendirmesine olanak tanır. Unutulmamalıdır ki `robots.txt` bir güvenlik mekanizması değildir; sadece arama motorlarına bir öneri sunar. Bir sayfanın `robots.txt` ile engellenmesi, o sayfanın arama sonuçlarında görünmeyeceği anlamına gelmez; yalnızca taranmasını engeller. Ancak, arama motorlarının taramadığı sayfalar genellikle dizine eklenmez veya arama sonuçlarında yüksek sıralarda yer almaz.
`robots.txt` dosyasının ana işlevi, gereksiz sayfaları belirleyerek tarama bütçesi israfını önlemektir. Bu, sitenizdeki değerli içeriğin daha sık taranmasını ve güncellenmesini sağlar. Özellikle `Disallow` yönergesi ile belirli dizinleri veya dosyaları tarayıcılardan gizleyebilirsiniz. Ancak bu işlemi yaparken çok dikkatli olmak gerekir; yanlış bir `Disallow` yönergesi, sitenizin tamamının veya önemli bölümlerinin arama motorları tarafından taranmasını ve dolayısıyla dizine eklenmesini engelleyebilir. Bu da ciddi SEO kayıplarına ve AdSense gelirlerinde düşüşe neden olabilir.

Gereksiz Sayfaları Belirleme ve Engelleme Nedenleri


Sitenizde tarama bütçenizi tüketen birçok gereksiz sayfa türü bulunabilir. Bu sayfaları engellemek, tarama verimliliğinizi artırmanın ilk adımıdır. İşte yaygın olarak karşılaşılan ve genellikle engellenmesi gereken sayfa türleri:
1. Yönetici ve Giriş Sayfaları: `wp-admin`, `admin`, `login` gibi sayfalar veya bu tür dizinler, sitenizin yönetimine özeldir ve ziyaretçiler veya arama motorları için bir değer taşımaz.
2. Test ve Hazırlık Ortamları: Canlıya alınmamış, geliştirme aşamasındaki sayfalar veya alt alan adları (staging.siteniz.com gibi) arama motorları tarafından dizine eklenmemelidir.
3. Dahili Arama Sonuç Sayfaları: Sitenizin kendi iç arama motoru tarafından oluşturulan sonuç sayfaları genellikle kalitesiz içerik olarak kabul edilir ve genellikle çok sayıda parametre içerir, bu da tarama bütçesini israf eder.
4. Kullanıcıya Özel Sayfalar: Kullanıcı profilleri, hesap ayarları, sepet sayfaları veya sipariş geçmişi gibi sadece oturum açmış kullanıcılara özel sayfalar.
5. Filtreleme ve Sıralama Parametreleri: E-ticaret sitelerinde ürün listelerini filtrelemek veya sıralamak için kullanılan URL parametreleri (`?color=red`, `?sort=price_asc` gibi) genellikle yinelenen içerik oluşturur. Doğru canonical etiketleri kullanılsa bile, bu parametreleri `robots.txt` ile engellemek tarama bütçesi açısından faydalı olabilir.
6. Eski, Değersiz veya Yinelenen İçerik: Çok eski, güncel olmayan veya başka sayfalarla neredeyse aynı içeriğe sahip sayfalar.
7. Medya Dosyaları ve Yüksek Çözünürlüklü Görüntüler: Bazı durumlarda, medya kütüphaneleri veya çok büyük resim dosyalarının dizine eklenmesi istenmeyebilir, özellikle bu dosyalar harici bir CDN'den servis ediliyorsa.
8. Teşekkür Sayfaları: Form gönderiminden sonra veya bir satın alma işleminden sonra görüntülenen teşekkür sayfaları, genellikle dizine eklenmeleri istenmeyen tek kullanımlık sayfalardır.
Bu sayfaları engellemenin temel nedeni, arama motoru örümceklerinin sitenizdeki değerli, benzersiz ve potansiyel olarak trafik getirecek sayfalara odaklanmasını sağlamaktır. Bu sayede, sitenizin genel AdSense optimizasyonu da desteklenmiş olur, çünkü AdSense reklamları sadece taranmış ve dizine eklenmiş sayfalarda gösterilebilir.

Robots.txt Generator Kullanımı


`robots.txt` dosyasını manuel olarak oluşturmak, özellikle sintaks hatalarına yatkın olabilecek bir süreçtir. Yanlış bir karakter veya yanlış bir yönerge, sitenizin tamamını arama motorları için erişilemez hale getirebilir. İşte bu noktada robots.txt generator araçları devreye girer. Bu araçlar, genellikle web tabanlı olup, kullanıcılara basit bir arayüz aracılığıyla doğru `robots.txt` dosyasını oluşturma imkanı sunar.
Robots.txt generator kullanmanın avantajları şunlardır:
* Kolaylık ve Hız: Hızlı bir şekilde geçerli bir `robots.txt` dosyası oluşturmanıza olanak tanır.
* Sintaks Hatalarını Önleme: Doğru formatı ve yönergeleri otomatik olarak uygulayarak olası hataları minimize eder.
* Çeşitli User-agent Ayarları: Googlebot, Bingbot, Yandexbot gibi farklı arama motorları için özel yönergeler belirlemenize olanak tanır.
* Site Haritası Ekleme: Sitenizin XML site haritası URL'sini dosyaya ekleyerek, arama motorlarının sitenizdeki önemli sayfaları kolayca bulmasına yardımcı olur.
Nasıl Kullanılır (Genel Adımlar):
1. Generator Aracını Seçin: Çevrimiçi birçok ücretsiz robots.txt generator aracı bulunmaktadır. Güvenilir ve yaygın kullanılan birini seçin.
2. Varsayılan Ayarları Belirleyin: Çoğu generator, tüm arama motorları için varsayılan olarak "izin ver" veya "tümünü engelle" gibi seçenekler sunar. Genellikle "tümüne izin ver" ile başlayıp özel engellemeler yapmak daha güvenlidir.
3. Engellenecek Dizinleri/Dosyaları Ekleme: Engellemek istediğiniz klasörleri (örneğin `/wp-admin/`, `/cgi-bin/`) veya belirli dosyaları (`/private/document.pdf`) `Disallow` yönergesi ile belirtin. Her bir yeni engelleme için ayrı bir satır kullanın.
4. Site Haritası URL'si Ekleme: Sitenizin XML site haritasının tam URL'sini (`Sitemap: https://www.siteniz.com/sitemap.xml`) eklediğinizden emin olun. Bu, arama motorlarının sitenizi daha verimli bir şekilde keşfetmesine yardımcı olur.
5. Oluştur ve İndir: Tüm ayarları yaptıktan sonra, generator aracının "Oluştur" veya "İndir" butonuna tıklayarak `robots.txt` dosyasını bilgisayarınıza kaydedin.
6. Yükle ve Test Et: Oluşturduğunuz `robots.txt` dosyasını sitenizin kök dizinine (genellikle `public_html` klasörü) yükleyin. Ardından Google Search Console'daki `robots.txt` test aracını kullanarak dosyanın doğru çalıştığından emin olun.

Robots.txt Uygulamasında Pratik Adımlar


Adım 1: Kapsamlı Bir Site Denetimi Yapın
Sitenizdeki tüm sayfaların bir listesini çıkarın. Bunu, Google Search Console'daki "Kapsam" raporunu inceleyerek, site haritanızı gözden geçirerek veya Ahrefs, SEMrush gibi araçlarla tarama yaparak yapabilirsiniz. Hangi sayfaların taranması gerektiğini ve hangilerinin gereksiz olduğunu belirleyin. Özellikle parametreli URL'ler, zayıf içerikli sayfalar ve yönetimsel alanlara odaklanın.
Adım 2: Engellenecek Sayfaları ve Dizinleri Belirleyin
Yukarıda bahsettiğimiz gibi, yönetim panelleri, test ortamları, dahili arama sonuç sayfaları, kullanıcıya özel profiller ve gereksiz filtreleme parametreleri gibi alanları bir liste halinde toplayın. Örneğin, `/wp-admin/`, `/search/`, `/tag/` gibi dizinler veya `*.pdf`, `*.doc` gibi dosya uzantıları engellenebilir.
Adım 3: Robots.txt Dosyanızı Oluşturun veya Güncelleyin
Bir robots.txt generator kullanın. Örneğin:
`User-agent: *`
`Disallow: /admin/`
`Disallow: /wp-admin/`
`Disallow: /cgi-bin/`
`Disallow: /search/`
`Disallow: /tags/`
`Disallow: /uyelik-islemleri/`
`Disallow: /*?s=` (iç arama sonuçları için)
`Sitemap: https://www.siteniz.com/sitemap.xml`
Bu örnek, tüm arama motoru botlarının (User-agent: *) belirli dizinlere erişimini engeller ve sitenizin site haritasını bildirir. Ancak bu bir şablondur; kendi sitenizin yapısına göre dikkatlice düzenlenmelidir.
Adım 4: Dosyayı Sitenize Yükleyin ve Test Edin
Oluşturduğunuz `robots.txt` dosyasını sitenizin kök dizinine, yani `https://www.siteniz.com/robots.txt` adresinden erişilebilir olacak şekilde yükleyin. Daha sonra Google Search Console'a gidin ve "Ayarlar" altındaki "Tarama" bölümünden "robots.txt test aracı"nı kullanarak dosyanızın doğru çalıştığını ve engellemek istediğiniz sayfaları gerçekten engellediğini doğrulayın. Bu adım, yanlış bir konfigürasyonun önüne geçmek için kritik öneme sahiptir. Ayrıca, bir diğer değerli araç olan '/makale.php?sayfa=search-console-rehberi' sayfamızda Search Console'un diğer faydalı özelliklerini de bulabilirsiniz.
Adım 5: İzlemeye Devam Edin
`robots.txt` dosyanızı güncelledikten sonra, Google Search Console'daki "Tarama İstatistikleri" raporunu düzenli olarak kontrol edin. Bu rapor, Googlebot'un sitenizde ne kadar zaman geçirdiğini, kaç sayfa taradığını ve hangi dosyaları indirdiğini gösterir. Bu verilerdeki değişiklikler, yaptığınız optimizasyonun etkilerini değerlendirmenize yardımcı olacaktır. Tarama istatistiklerinizde olumlu bir değişim görmeniz, tarama bütçenizi daha verimli kullandığınızın bir işaretidir.

Robots.txt Kullanımında Dikkat Edilmesi Gerekenler ve AdSense İlişkisi


`robots.txt` güçlü bir araçtır ancak dikkatli kullanılmalıdır. İşte göz önünde bulundurmanız gereken bazı önemli noktalar:
* `Disallow` ile `noindex` Farkı: `robots.txt` bir sayfayı taramayı engeller, ancak Google o sayfaya başka bir yerden (örneğin bir backlinkten) rastlarsa yine de dizine ekleyebilir, ancak içeriksiz olarak. Bir sayfanın kesinlikle arama sonuçlarında görünmesini istemiyorsanız, `noindex` meta etiketini veya X-Robots-Tag HTTP başlığını kullanmanız gerekir. Bu konuda daha detaylı bilgi için '/makale.php?sayfa=noindex-kullanimi' başlıklı makalemizi okumanızı öneririz.
* Önemli Sayfaları Yanlışlıkla Engellemeyin: Sitenizin ana sayfalarını, kategori sayfalarını veya ürün sayfalarını yanlışlıkla engellemek, ciddi trafik ve gelir kaybına yol açar. Her `Disallow` kuralını iki kez kontrol edin.
* `robots.txt` Bir Güvenlik Çözümü Değildir: Hassas veriler içeren sayfaları `robots.txt` ile engellemek, bu verileri gizlemez. `robots.txt` herkese açık bir dosyadır ve herkes tarafından görüntülenebilir. Hassas içerikler için sunucu tarafı kimlik doğrulama veya diğer güvenlik önlemleri kullanılmalıdır.
* AdSense ve Tarama: Google AdSense reklamlarının sitenizde düzgün bir şekilde gösterilebilmesi için, sayfalarınızın Googlebot tarafından taranabilir ve dizine eklenebilir olması şarttır. Eğer reklam gösterimi hedeflediğiniz sayfaları `robots.txt` ile yanlışlıkla engellerseniz, AdSense bu sayfalarda reklam gösteremez ve potansiyel geliriniz düşer. Bu nedenle, `robots.txt` optimizasyonu yaparken, AdSense'in yerleştirildiği tüm önemli sayfaların erişilebilir olduğundan emin olun. Tarama bütçenizi iyi yöneterek önemli sayfaların hızlıca dizine eklenmesini sağlamak, AdSense optimizasyonu için de temel bir adımdır.

Sonuç


Tarama bütçesi optimizasyonu, modern SEO stratejilerinin vazgeçilmez bir parçasıdır. Robots.txt generator gibi araçları kullanarak gereksiz sayfaları etkili bir şekilde engellemek, arama motorlarının sitenizdeki değerli içeriğe odaklanmasını sağlar. Bu sayede, önemli sayfalarınız daha hızlı dizine eklenir, SEO performansınız artar ve AdSense optimizasyonu için güçlü bir temel oluşturulur. Ancak bu süreci titizlikle yönetmek, her adımda dikkatli olmak ve değişiklikleri düzenli olarak izlemek büyük önem taşır. Unutmayın, iyi yapılandırılmış bir `robots.txt` dosyası, sitenizin arama motorları karşısındaki görünürlüğünü maksimize etmenize yardımcı olan sessiz bir kahramandır.

Ezgi Avcı

Yazar: Ezgi Avcı

Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.

Diğer Makaleler

Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Web Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NWeb Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeYonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Yonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Gereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciGereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizYanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Yanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Robotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimRobotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Robotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Yanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorYanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimRobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz ARobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz AWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosBelirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Belirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Yonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobYonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil KontOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil Kont