Wordpress Sitenizdeki Kategori Arsivlerini Robotstxt Ile Indekslemeden
Wordpress Sitenizdeki Kategori Arsivlerini Robotstxt Ile Indekslemeden

WordPress sitenizdeki kategori arşivlerini robots.txt ile indekslemeden nasıl çıkarırsınız?


Bir SEO editörü olarak, web sitenizin arama motorlarındaki görünürlüğünü optimize etmenin ve Google AdSense politikalarına uygun kalmanın karmaşıklığını çok iyi biliyorum. WordPress tabanlı sitelerde sıkça karşılaşılan bir durum, kategori arşivlerinin arama motorları tarafından indekslenmesidir. İlk bakışta zararsız gibi görünse de, bu durum hem SEO performansınızı hem de potansiyel olarak AdSense gelirlerinizi olumsuz etkileyebilir. Bu makalede, WordPress sitenizdeki kategori arşivlerini robots.txt dosyası ile arama motorlarından nasıl çıkaracağınızı detaylı bir şekilde ele alacak, bu kararın AdSense ve genel SEO stratejiniz üzerindeki etkilerini açıklayacağım.

Kategori Arşivleri ve İndeksleme Problemleri


WordPress, varsayılan olarak yazılarınızı kategorilere ayırdığınızda, her kategori için ayrı bir arşiv sayfası oluşturur. Örneğin, "Teknoloji" adında bir kategoriniz varsa, bu kategoriye ait tüm yazıları listeleyen `/category/teknoloji/` gibi bir URL oluşur. Bu sayfalar, sitenizdeki içeriği düzenlemek ve kullanıcıların belirli konulara kolayca erişmesini sağlamak için harika bir iç yapı sunar. Ancak, arama motoru optimizasyonu (SEO) açısından bazı sorunlar doğurabilirler:
* Yinelenen İçerik (Duplicate Content): Kategori arşivleri genellikle sitenizdeki makalelerin başlıklarını, özetlerini ve bazen de ilk paragraflarını içerir. Bu içerik, aslında orijinal makalelerin kendisinde de bulunduğu için, arama motorları tarafından yinelenen içerik olarak algılanabilir. Google, benzer içeriği olan birçok sayfayı dizine eklemek yerine, en uygununu seçmeyi tercih eder ve bu durum, sitenizin genel otoritesini ve sıralama faktörleri üzerinde olumsuz bir etki yaratabilir.
* Düşük Kaliteli Sayfalar: Kategori arşivleri genellikle başlıklardan ve kısa özetlerden oluşur, bu da onları "ince içerik" veya "düşük kaliteli sayfa" kategorisine sokabilir. Google, kullanıcılarına değerli ve özgün içerik sunan sayfaları tercih eder. Düşük kaliteli sayfaların indekslenmesi, sitenizin genel kalitesini düşürebilir.
* Crawl Bütçesi İsrafı: Arama motorları, sitenizi taramak için belirli bir crawl bütçesi ayırır. Eğer bu bütçe, indekslenmesini istemediğiniz veya değeri düşük olan kategori arşivlerini taramak için harcanırsa, asıl değerli olan makalelerinizin veya ana sayfalarınızın taranma sıklığı ve hızı düşebilir. Bu da yeni içeriğinizin daha geç indekslenmesine yol açar.
* Kullanıcı Deneyimi: Nadiren de olsa, kullanıcılar doğrudan bir kategori arşivine düşebilirler. Eğer bu sayfalar iyi optimize edilmemişse, kullanıcının beklentilerini karşılamayabilir ve siteden hemen ayrılmalarına neden olabilir. Bu da hemen çıkma oranınızı (bounce rate) artırarak SEO sinyallerinizi olumsuz etkileyebilir.

Neden Robots.txt Kullanmalısınız? Noindex'ten Farkı ve AdSense İlişkisi


Kategori arşivlerini arama motorlarından çıkarmak için iki temel yöntem vardır: `noindex` meta etiketi ve `robots.txt` dosyası. Her ikisi de farklı amaçlara hizmet eder ve özellikle AdSense entegrasyonu olan siteler için doğru tercihi yapmak kritik öneme sahiptir.
#### Noindex Meta Etiketi
`noindex` etiketi, bir arama motoru tarayıcısına belirli bir sayfayı taramasını ancak onu arama sonuçlarında göstermemesini söyler. Sayfa tarayıcı tarafından ziyaret edilir, içeriği okunur, ancak dizine eklenmez.
#### Robots.txt Dosyası
`robots.txt` dosyası ise, arama motoru tarayıcılarına hangi URL'leri ziyaret etmelerine izin verilip verilmediğini bildiren bir metin dosyasıdır. Bu dosya, bir sayfanın hiç taranmamasını sağlar.
#### AdSense İlişkisi ve Neden Robots.txt Tercih Edilmeli?
İşte bu noktada AdSense politikaları devreye girer. Google AdSense, reklamların gösterildiği içeriğin belirli kalite standartlarına ve politikalarına uygun olmasını bekler.
* `noindex` ile Riskler: Eğer bir sayfa AdSense reklamları içeriyorsa ve siz onu `noindex` etiketiyle indekslemeden çıkarırsanız, arama motorları bu sayfayı indekslemese bile sayfa hala erişilebilir ve reklamları gösterebilir. Bu durum, arama motorlarının içeriğinizi değerlendirmesini zorlaştırırken, AdSense'in de reklamları gösterdiği içeriğin kalitesini algılamasında sorunlara yol açabilir. En kötü senaryoda, düşük kaliteli veya yinelenen içerikte reklam göstermek AdSense politika ihlali olarak algılanabilir. Ayrıca, `noindex` etiketi olan ancak taranmasına izin verilen sayfalar, tarayıcı bütçenizi yine de tüketir.
* `robots.txt` ile Güvenlik: `robots.txt` kullanarak kategori arşivlerini *taramadan* çıkarmak, arama motorlarının bu sayfalara hiç uğramamasını sağlar. Bu, birden fazla açıdan daha güvenli bir yaklaşımdır:
1. Crawl Bütçesi Tasarrufu: Değersiz sayfalar taranmadığı için, crawl bütçesi asıl önemli içeriğiniz için korunur.
2. Yinelenen İçerik Engeli: Arama motorları bu sayfaların içeriğine erişemediği için, orijinal içerikle potansiyel yinelenen içerik sorunları tamamen ortadan kalkar.
3. AdSense Politikalarına Uyum: Eğer kategori arşivlerinizde AdSense reklamları gösteriliyorsa, bu sayfaları `robots.txt` ile taramadan çıkarmak, arama motorlarının düşük kaliteli veya yinelenen içeriğe reklam gösterdiğiniz izlenimini edinmesini engeller. Böylece, sitenizin genel kalite algısını korur ve AdSense politika ihlali riskini minimize edersiniz. Unutmayın, AdSense yayıncılarının sitelerindeki tüm sayfaların Google Yayıncı Politikalarına uyması gerekir. Taranmayan sayfaların bu politikalarla çelişme riski azalır.
Bu nedenlerle, kategori arşivleri gibi genel olarak SEO değeri düşük olan ve birincil içeriği tekrar eden sayfalar için `robots.txt` ile `Disallow` direktifi kullanmak, genellikle `noindex` etiketinden daha iyi ve daha güvenli bir stratejidir.

Robots.txt Dosyasının Temel Yapısı ve Kategori Arşivleri İçin Uygulama


`robots.txt` dosyası, oldukça basit bir yapıya sahiptir. Temel olarak `User-agent` ve `Disallow` direktiflerini içerir.
* `User-agent`: Bu, kuralın hangi arama motoru tarayıcısı için geçerli olduğunu belirtir. `User-agent: *` kullanmak, tüm tarayıcılar (Googlebot, Bingbot, YandexBot vb.) için geçerli olacağı anlamına gelir.
* `Disallow`: Bu direktif, `User-agent` tarafından belirtilen tarayıcının hangi dizinleri veya dosyaları taramaması gerektiğini söyler.
WordPress'te kategori arşivlerinin URL yapısı genellikle `/category/` ile başlar. Örneğin:
* `https://www.siteniz.com/category/teknoloji/`
* `https://www.siteniz.com/category/haberler/`
Bu yapıyı kullanarak, tüm kategori arşivlerini tek bir kural ile taramadan çıkarabiliriz. Robots.txt dosyası içinde aşağıdaki direktifleri eklemeniz yeterlidir:
```
User-agent: *
Disallow: /category/
```
Bu kural, tüm arama motoru tarayıcılarına sitenizdeki `/category/` ile başlayan tüm URL'leri taramamalarını söyler. Bu sayede, "teknoloji", "haberler" veya gelecekte ekleyeceğiniz tüm diğer kategori arşivleriniz otomatik olarak taranmadan çıkarılmış olur. Eğer kalıcı bağlantı yapınızda kategori tabanını değiştirdiyseniz (örneğin `/konular/` yaptıysanız), `Disallow: /konular/` şeklinde güncellemeniz gerekir. Ancak çoğu WordPress sitesi varsayılan `/category/` yapısını kullanır.

WordPress Sitenizde Robots.txt Dosyasını Uygulama Adımları


WordPress sitenizde `robots.txt` dosyasını düzenlemek veya oluşturmak birkaç farklı şekilde yapılabilir. Hangi yöntemi seçeceğiniz, teknik bilginize ve sitenizi nasıl yönettiğinize bağlıdır.
#### 1. SEO Eklentileri Kullanarak (Önerilen Yöntem)
Çoğu WordPress SEO eklentileri (Yoast SEO, Rank Math, All in One SEO Pack vb.) kullanıcı dostu bir arayüz ile `robots.txt` dosyanızı düzenlemenize olanak tanır. Bu yöntem, teknik bilgi gerektirmediği için yeni başlayanlar veya FTP erişimi olmayanlar için en pratik çözümdür.
* Yoast SEO: WordPress yönetici panelinizden "SEO" > "Araçlar" > "Dosya Düzenleyici" sekmesine gidin. Burada `robots.txt` dosyanızı düzenleyebileceğiniz bir alan bulacaksınız.
* Rank Math: "Rank Math" > "Genel Ayarlar" > "Edit Robots.txt" bölümüne gidin. Benzer şekilde bir düzenleyici arayüzü göreceksiniz.
Bu arayüzlere yukarıda belirtilen `User-agent: *` ve `Disallow: /category/` kodunu ekleyip kaydedin. Eklentiler genellikle otomatik olarak `robots.txt` dosyanızı sitenizin kök dizinine yerleştirir veya günceller.
#### 2. FTP veya cPanel Dosya Yöneticisi Kullanarak
Bu yöntem daha teknik bir yaklaşımdır ve sitenizin kök dizinine (public_html, www veya sitenizin adı klasörü) doğrudan erişiminiz olmalıdır.
1. FTP Programı Kullanarak: FileZilla gibi bir FTP programı ile hosting hesabınıza bağlanın. Sitenizin kök dizinini bulun. `robots.txt` adında bir dosya olup olmadığını kontrol edin.
* Yoksa: Yeni bir metin dosyası oluşturun, içine yukarıdaki `Disallow` kuralını ekleyin ve `robots.txt` olarak kaydederek kök dizinine yükleyin.
* Varsa: Var olan `robots.txt` dosyasını bilgisayarınıza indirin, bir metin editörü (Notepad++, Sublime Text vb.) ile açın, kuralı ekleyin ve kaydederek tekrar kök dizinine yükleyin, var olan dosyanın üzerine yazın.
2. cPanel Dosya Yöneticisi Kullanarak: Hosting sağlayıcınızın cPanel'ine giriş yapın. "Dosya Yöneticisi"ni açın ve `public_html` (veya ilgili kök dizini) klasörüne gidin. `robots.txt` dosyasını bulun, sağ tıklayarak "Düzenle" seçeneğini seçin ve kuralı ekleyip kaydedin.
Önemli Not: `robots.txt` dosyasını manuel olarak düzenlerken dikkatli olun. Yanlış bir komut, sitenizin tamamının arama motorlarından kaldırılmasına neden olabilir. Düzenlemeden önce dosyanın bir yedeğini almanız her zaman iyi bir uygulamadır. `/makale.php?sayfa=robots-txt-generator-kullanimi` sayfamızdan `robots.txt` dosyanızı oluşturma konusunda daha fazla bilgi edinebilirsiniz.

Uygulamanın Doğrulanması ve Arama Motorlarına Bildirim


`robots.txt` dosyanızdaki değişiklikleri yaptıktan sonra, bu değişikliklerin doğru bir şekilde uygulandığından ve arama motorlarının bunları anladığından emin olmanız önemlidir.
#### 1. Google Search Console (GSC) Kullanımı
Google Search Console (eski adıyla Google Webmaster Tools), sitenizin Google arama sonuçlarındaki performansını izlemek ve yönetmek için vazgeçilmez bir araçtır.
* Robots.txt Test Aracı: GSC'de "Ayarlar" > "Tarama" > "Robots.txt test aracı" bölümüne gidin. Burada `robots.txt` dosyanızın güncel halini görebilir ve kategori arşivlerinizden birinin URL'sini (örneğin `/category/teknoloji/`) girerek Googlebot'un bu URL'yi taramasına izin verilip verilmediğini kontrol edebilirsiniz. Test sonucunun "Engellendi" veya "İzin verilmiyor" demesi, kuralın doğru çalıştığını gösterir.
* URL Denetleme Aracı: GSC'deki "URL Denetleme" aracını kullanarak, belirli bir kategori arşiv URL'sini girip Google'ın o URL hakkında ne bildiğini kontrol edebilirsiniz. Eğer kural doğru bir şekilde uygulanmışsa, tarayıcının bu URL'ye erişemediği ve dizine ekleyemediği bilgisi karşınıza çıkacaktır.
#### 2. Sitemap Güncellemesi
Eğer otomatik olarak kategori arşivlerini sitemap'inize dahil eden bir SEO eklentisi kullanıyorsanız, bu sayfaları sitemap'inizden çıkarmak isteyebilirsiniz. Çoğu eklenti (Yoast, Rank Math vb.), kategori arşivleri için sitemap oluşturmayı devre dışı bırakma seçeneği sunar. Sitemaps, arama motorlarına hangi sayfaların indekslenmesi gerektiğini önerdiği için, taranmasını veya indekslenmesini istemediğiniz sayfaların sitemap'te yer almaması tutarlılık açısından önemlidir.
#### 3. Sabır
Arama motorlarının `robots.txt` dosyanızdaki değişiklikleri fark etmesi ve uygulamaya koyması zaman alabilir. Bu süre, sitenizin tarama sıklığına bağlı olarak birkaç günden birkaç haftaya kadar değişebilir. Sabırlı olun ve GSC'deki tarama istatistiklerini düzenli olarak kontrol edin.

Kategori Arşivlerini İndekslemeden Çıkarmanın AdSense ve SEO Faydaları


Kategori arşivlerini `robots.txt` ile arama motorlarından çıkarmak, sitenizin genel sağlığı ve performansına hem SEO hem de AdSense açısından önemli katkılar sağlar:
* Gelişmiş SEO Performansı:
* Daha İyi İçerik Odaklılık: Arama motorları, sitenizdeki en değerli ve özgün içeriğe odaklanır. Kategori arşivlerinin dışarıda bırakılması, asıl makalelerinizin ve ana sayfalarınızın daha fazla SEO değeri taşımasını sağlar.
* Etkili Crawl Bütçesi Kullanımı: Arama motoru tarayıcıları, kaynaklarını gerçekten indekslenmesi gereken sayfalara harcar. Bu, yeni içeriklerinizin daha hızlı keşfedilip dizine eklenmesine yardımcı olur.
* Daha Az Yinelenen İçerik Sorunu: Potansiyel yinelenen içerik sorunları ortadan kalktığı için, sitenizin Google tarafından daha güvenilir ve kaliteli algılanmasına katkıda bulunur.
* Potansiyel Sıralama İyileşmeleri: Sitelerindeki düşük kaliteli veya yinelenen içeriği temizleyen web siteleri, genellikle arama sonuçlarında iyileşmeler gözlemler.
* AdSense Politikalarına Uyum ve Gelir Sağlığı:
* Daha Az Politika İhlali Riski: Düşük kaliteli veya ince içerikli sayfalarda reklam gösterimini dolaylı olarak azaltarak, Google Yayıncı Politikalarını ihlal etme riskini minimize edersiniz. AdSense, değerli ve özgün içeriğe sahip sitelere öncelik verir.
* Daha Kaliteli Reklam Gösterimi: Arama motorları ve AdSense, sitenizin genel kalitesini daha iyi anladığında, daha ilgili ve yüksek değerli reklamların sitenizde gösterilme olasılığı artar, bu da potansiyel olarak reklam gelirlerinizi artırabilir.
* Site Denetimlerinde Avantaj: Gelecekte sitenizin AdSense ekibi tarafından incelenmesi durumunda, temiz bir indeksleme yapısı ve düşük kaliteli sayfalardan arındırılmış bir site, olumlu bir izlenim bırakacaktır. `/makale.php?sayfa=duplike-icerik-ve-adsense-politikalari` sayfamızda yinelenen içerik ve AdSense ilişkisi hakkında daha fazla bilgi bulabilirsiniz.

Alternatif Yaklaşımlar ve Dikkate Alınması Gerekenler


Kategori arşivlerini `robots.txt` ile indekslemeden çıkarmak en genel ve genellikle en iyi çözüm olsa da, bazı özel durumlar için farklı yaklaşımlar da düşünülebilir:
* Değerli Kategori Arşivleri: Bazı özel durumlarda (örneğin, bir e-ticaret sitesinin özenle hazırlanmış kategori sayfaları veya bir portföy sitesinin projelerini sergileyen kategori sayfaları), kategori arşivleri kullanıcılar için gerçekten değerli birer sayfa olabilir. Bu tür senaryolarda, `noindex` etiketini kullanmak, sayfanın taranmasına izin verirken indekslenmesini engelleyebilir. Ancak, AdSense reklamları içeren ve `noindex` etiketiyle işaretlenmiş sayfalar için potansiyel politika ihlali riskini daima göz önünde bulundurun.
* Sayfalandırılmış Arşivler: Eğer kategori arşivleriniz birden fazla sayfadan oluşuyorsa (`/category/teknoloji/page/2/`, `/category/teknoloji/page/3/` gibi), bu sayfalar için özel bir strateji izlenmelidir. Genellikle, ilk sayfa dışındaki sayfaların indekslenmesini `noindex` etiketiyle engellemek veya `rel="canonical"` etiketini ilk sayfaya işaret etmek önerilir. Ancak `robots.txt` ile `/category/` tamamen engellendiğinde, tüm sayfalandırılmış arşivler de taranmayacaktır, bu da bu sayfalar için ek bir müdahaleyi gereksiz kılar.
Sonuç olarak, WordPress sitenizdeki kategori arşivlerini robots.txt dosyası ile indekslemeden çıkarmak, sitenizin SEO sağlığı ve AdSense uyumluluğu açısından güçlü ve etkili bir adımdır. Bu basit değişiklik, arama motorlarına sitenizin en değerli içeriğine odaklanmaları için net bir sinyal gönderirken, sitenizin genel kalitesini artırır ve potansiyel politika sorunlarını önler. Düzenli olarak sitenizin `robots.txt` dosyasını ve Google Search Console verilerini kontrol ederek sitenizin arama motoru görünürlüğünü proaktif bir şekilde yönetmeye devam edin.

Ezgi Avcı

Yazar: Ezgi Avcı

Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.

Diğer Makaleler

Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Sitenizin Seosuna Zarar Vermeyen Robotstxt Dosyasini Hizla Ve Hatasiz Web Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NWeb Sitem Google Arama Sonuclarinda Yok Robotstxt Hatasi Olabilir Mi NKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariKopya Icerik Cezasi Almamak Icin Robotstxt Uretici Ile Hangi SayfalariE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NE Ticaret Sitemin Yonetim Paneli Sayfalarini Robotstxt Ile Googledan NRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisiyle Olusturdugum Dosyaya Ragmen Sayfalarim GoogledaRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeRobotstxt Ureticisi Kullanirken Onemli Sayfalarin Googledan EngellenmeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeUrl Parametrelerinden Kaynaklanan Kopya Icerik Sorunlarini Gidermek VeYonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Yonetici Paneli Sepet Veya Tesekkur Sayfalarinizi Arama Motorlarindan Gereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciGereksiz Urllerin Google Tarayici Butcenizi Tuketmesini Engellemek IciWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeWordpress Sitenizdeki Etiket Ve Kategori Sayfalarini Googledan GizlemeGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrGelistirme Asamasindaki Sitenizi Veya Yonetici Panelinizi Robotstxt UrHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenHangi Sayfalari Engellemeli Robotstxt Uretici Ile Seoya Zarar VermedenWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaWordpress Sitemdeki Etiket Ve Kategori Sayfalarinin Arama MotorlarindaGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IGoogle Search Consoledaki Tarama Hatasi Uyarisini Robots Txt Uretici IMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NMevcut Robotstxt Dosyami Sitenize Zarar Vermeden Guvenli Bir Sekilde NSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuSubdomainler Icin Ayri Robotstxt Dosyasi Gerekli Mi Karar Verme KilavuYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiYinelenen Icerik Sorununu Robotstxt Dosyasiyla Cozmeye Calisirken YapiRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BRobotstxt Uretici Kullanarak Dinamik Url Parametrelerini Tarama Disi BResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiResim Ve Pdf Dosyalarimi Robotstxt Ile Google Gorsellerden EngelleyebiGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasGelistirme Ortami Sitelerimi Robotstxt Kullanarak Arama Motoru TaramasBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilBuyuk Bir E Ticaret Sitesi Icin Robotstxt Dosyasini Uretecinizle EtkilSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerSitemap Konumunu Robotstxtye Nasil Eklerim Ve Bu Seomu Nasil EtkilerWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizWordpress Yonetici Paneli Urlimi Robotstxt Ile Arama Motorlarindan GizYanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Yanlis Robotstxt Dosyasi Yuzunden Google Indexinden Cikan Sayfalarimi Robotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Olustururken Seo Deger Kaybini Onlemek Icin Neler YapmaliyimRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriRobotstxt Dosyasinda Yanlislikla Engellenen Gorselleri Nasil DuzeltiriTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimTum Sitemi Dizine Kapatip Sadece Bir Kac Sayfayi Nasil Acik BirakirimSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparSadece Belirli Arama Motoru Botlarina Izin Veren Robotstxt Nasil YaparRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmRobotstxt Dosyamdaki Google Search Console Hatalarini Nasil GideririmE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimE Ticaret Sitemdeki Kopyalanan Icerigi Robotstxt Ile Nasil GizlerimRobotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Robotstxt Uretici Kullanarak Kategori Sayfalarini Dogru Sekilde Nasil Yanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorYanlis Robotstxt Dosyasi Yuzunden Sitem Neden Arama Motorunda CikmiyorGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellGooglein Belirli Sayfalarimi Indekslemesini Robotstxt Ile Nasil EngellYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimYeni Sitem Icin Robotstxt Dosyasini Hizlica Nasil OlusturabilirimRobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz ARobotstxt Hatalarini Onlemek Ve Site Sagligini Korumak Icin Ucretsiz AWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosWeb Sitenizin Tarama Butcesini Optimize Etmek Icin Dogru Robotstxt DosBelirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Belirli Url Parametrelerini Engelleme Robotstxt Ureteci Ile Adim Adim Yonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobYonetici Paneli Sayfalarinizi Arama Motorlarindan Uzak Tutmak Icin RobSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleSitemap Gondermeme Ragmen Robotstxtnin Dizine Engellemesini Nasil OnleOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil KontOnemli Sayfalarim Neden Dizine Eklenmiyor Robotstxt Dosyami Nasil Kont