
Yeni WordPress Siteniz İçin Güvenli ve Etkili Bir Robots.txt Dosyası Nasıl Oluşturulur?
Yeni bir
WordPress sitesi kurmak heyecan verici bir süreçtir, ancak sitenizin arama motorları tarafından doğru şekilde bulunup değerlendirilmesi için yapılması gereken önemli adımlar vardır. Bu adımlardan biri de `robots.txt` dosyasını doğru bir şekilde yapılandırmaktır. Bu küçük metin dosyası, arama motoru botlarının (örneğin Googlebot) sitenizi nasıl tarayacağını ve hangi bölümlerini
dizinlemeye dahil edeceğini belirleyen bir rehber görevi görür. Doğru bir `robots.txt` stratejisi, sitenizin
SEO performansını artırmanın yanı sıra, sunucu kaynaklarınızı verimli kullanmanıza ve hatta
Google AdSense gibi reklam gelirlerinizi optimize etmenize yardımcı olabilir.
Peki, yeni siteniz için neden bu kadar önemli ve nasıl oluşturulur? Hadi detaylara inelim.
Robots.txt Dosyasının Temel Amacı ve Önemi
`robots.txt` dosyası, web sitenizin kök dizininde bulunan ve arama motoru botlarına yönelik yönergeler içeren basit bir metin dosyasıdır. Amacı, botlara sitenizin hangi bölümlerini tarayabileceklerini (izin verilenler) ve hangi bölümlerini tarayamayacaklarını (engellenenler) bildirmektir. Bu dosya, robotlara kesinlikle uyulması gereken bir emir olmaktan çok, bir "nazik istek" gibidir. Ancak büyük arama motorları bu isteklere genellikle saygı duyar.
Arama Motoru Botlarını Yönlendirmek
Birincil amacı, arama motoru botlarını sitenizde doğru yönlendirmektir. Yeni bir WordPress sitesinde genellikle yayınlar, sayfalar ve kategoriler gibi önemli içerikler bulunur. Bunların dizinlenmesini istersiniz. Ancak, `/wp-admin/`, `/wp-includes/` gibi yönetim paneli klasörleri, bazı eklenti veya tema dosyaları, arama sonuç sayfaları veya geçici dosyalar gibi bölümlerin arama motorları tarafından dizinlenmesini istemeyebilirsiniz. Bu tür bölümlerin dizinlenmesi, sitenizin arama sonuçlarında kalitesiz görünmesine neden olabilir ve potansiyel güvenlik riskleri oluşturabilir. `robots.txt` sayesinde, bu bölümleri botlardan gizleyerek sadece önemli içeriklerinizin öne çıkmasını sağlarsınız.
Tarama Bütçesini Verimli Kullanmak
Her web sitesinin, arama motorları tarafından belirlenen bir "tarama bütçesi" vardır. Bu bütçe, botların sitenizde belirli bir zaman diliminde ne kadar sayfa tarayabileceğini ifade eder. Özellikle büyük siteler için veya sunucu kaynakları sınırlı olan yeni siteler için
tarama bütçesi yönetimi kritik öneme sahiptir. Eğer `robots.txt` dosyanız, botların alakasız veya önemsiz sayfaları taramasını engellerse, botlar kısıtlı bütçelerini sitenizin en değerli sayfalarını keşfetmek ve dizinlemek için kullanabilir. Bu, yeni içeriklerinizin daha hızlı fark edilmesini ve arama sonuçlarında yerini almasını sağlar. Yanlış yapılandırılmış bir `robots.txt` ise tarama bütçenizi boşa harcamanıza neden olabilir.
Google AdSense ve İçerik Dizinlemesi Arasındaki İlişki
Google AdSense kullanan veya kullanmayı düşünen bir site sahibi olarak, `robots.txt` dosyasının AdSense gelirleriniz üzerindeki dolaylı etkisinin farkında olmalısınız. AdSense, reklamları sitenizdeki içerikle eşleştirerek gösterir. Bu eşleştirme sürecinin doğru çalışabilmesi için, AdSense botlarının (ki genellikle Googlebot ile aynıdır veya onun bir türevidir) içeriğinizi sorunsuz bir şekilde tarayabilmesi ve anlayabilmesi gerekir.
Eğer kritik sayfalarınızı veya bu sayfalardaki görsel/stil dosyalarını `robots.txt` aracılığıyla engellerseniz, Googlebot bu sayfaları tam olarak render edemeyebilir veya içeriğini anlayamayabilir. Bu durum, reklamların alakasız görünmesine, doğru yerleşmemesine veya hatta hiç görünmemesine yol açabilir. Sonuç olarak, reklam gösterimleriniz ve tıklama oranlarınız düşer, bu da AdSense gelirlerinizin azalması anlamına gelir. Bu nedenle, AdSense yayını yapmayı düşündüğünüz tüm içeriklerin ve bunların düzgün görüntülenmesi için gerekli olan tüm stil (CSS) ve betik (JavaScript) dosyalarının taranabilir olduğundan emin olmalısınız. Kısacası, AdSense'in düzgün çalışması için sitenizin düzgün bir şekilde dizinlenmesi şarttır.
WordPress Siteleri İçin Tipik Robots.txt Yapısı
WordPress, varsayılan olarak sanal bir `robots.txt` dosyası oluşturur. Ancak bu dosya genellikle çok temeldir ve sitenizin özel ihtiyaçlarına göre özelleştirilmesi gerekebilir. Fiziksel bir `robots.txt` dosyası oluşturarak bu kontrolü tamamen ele alabilirsiniz.
Varsayılan WordPress Ayarları ve Robots.txt
Yeni bir WordPress kurulumunda, WordPress kendi sanal `robots.txt` dosyasını oluşturur. Bu genellikle aşağıdaki gibi görünür:
```
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
```
Bu yapılandırma, tüm arama motoru botlarının (`User-agent: *`) `/wp-admin/` dizinini taramasını engellerken, `admin-ajax.php` dosyasına izin verir (ki bu, birçok WordPress işlevi için gereklidir). Ancak, bu varsayılan ayar genellikle sitenizin tüm potansiyel ihtiyaçlarını karşılamaktan uzaktır. Örneğin, sitenizin belirli eklenti klasörlerini, temaların önizleme sayfalarını veya özel şablon dosyalarını engellemek isteyebilirsiniz.
Fiziksel bir `robots.txt` dosyası oluşturmak, sitenizin kök dizinine `robots.txt` adında bir metin dosyası yüklemekle olur. WordPress, fiziksel bir dosya bulduğunda, kendi sanal dosyasını devre dışı bırakır ve fiziksel olanı kullanır.
Temel İzinler ve Engellemeler (Allow ve Disallow)
Etkili bir `robots.txt` dosyasının kalbi, `Disallow` (engelle) ve `Allow` (izin ver) direktifleridir.
*
Disallow Direktifi: Bu, botların belirli bir URL yolunu veya dizini taramasını engellemek için kullanılır.
*
Örnekler:* `Disallow: /wp-admin/`: Yönetici panelini engeller.
* `Disallow: /wp-includes/`: WordPress'in temel çekirdek dosyalarını içeren dizini engeller.
* `Disallow: /wp-content/plugins/`: Tüm eklentileri engeller (ancak çoğu zaman eklentilerin bazı CSS/JS dosyalarına izin vermek isteyebilirsiniz).
* `Disallow: /tag/`: Etiket arşivlerini engeller (eğer bu sayfaların içeriği zayıfsa ve
SEO değeri taşımıyorsa).
* `Disallow: /category/`: Kategori arşivlerini engeller (yine, eğer zayıf içerikse).
* `Disallow: /*?s=*`: Sitenizin arama sonuç sayfalarını engeller.
* `Disallow: /feed/`: RSS/Atom beslemelerini engeller (isteğe bağlı, bazıları izin verir).
*
Allow Direktifi: `Disallow` ile engellediğiniz bir dizin içindeki belirli bir dosyaya veya alt dizine özel olarak izin vermek için kullanılır. Genellikle CSS, JavaScript dosyaları veya görseller gibi kritik kaynaklar için kullanılır.
*
Örnekler:* `Disallow: /wp-content/plugins/`
* `Allow: /wp-content/plugins/contact-form-7/includes/css/styles.css`: Belirli bir eklentinin stil dosyasına izin verir. Bu, Google'ın sitenizi düzgün bir şekilde render etmesi için çok önemlidir. Google, "Mobil Uyumluluk" testinde ve genel
SEO değerlendirmesinde bu kaynaklara erişebilmek ister.
Unutulmamalıdır ki, CSS, JavaScript ve görsel dosyalarını engellemek, sitenizin nasıl göründüğünü ve işlev gördüğünü anlamasına engel olduğu için Google tarafından tavsiye edilmez. Bu, özellikle mobil uyumluluk ve kullanıcı deneyimi açısından önemlidir. Yalnızca kesinlikle gerekli olduğunda ve ne yaptığınızdan eminseniz bu tür dosyaları engelleyin.
Sitemap Konumu Belirtmek (Sitemap Direktifi)
`robots.txt` dosyasının bir diğer kritik bileşeni de `Sitemap` direktifidir. Bu direktif, arama motorlarına sitenizin XML site haritasının nerede bulunduğunu söyler. Site haritası, sitenizdeki tüm önemli sayfaların bir listesini içerir ve botların sitenizi daha verimli bir şekilde taramasına yardımcı olur.
*
Örnek:`Sitemap: https://www.siteniz.com/sitemap_index.xml` (Yoast SEO veya Rank Math gibi eklentilerin oluşturduğu genel site haritası dizinidir).
Bu direktifi eklemek, yeni sitenizin sayfalarının arama motorları tarafından daha hızlı keşfedilmesini sağlar ve
dizinleme sürecini hızlandırır.
Etkili Bir Robots.txt Dosyası Oluşturma Adımları
Yeni bir WordPress sitesi için etkili bir `robots.txt` dosyası oluşturmak, dikkatli planlama ve test gerektirir.
Sitenizin İhtiyaçlarını Belirleyin
İlk adım, sitenizin hangi bölümlerinin arama motorları tarafından dizinlenmesini isteyip istemediğinizi net bir şekilde belirlemektir.
*
Dizinlenmesini istemedikleriniz: Yönetim paneli, tema ve eklenti dosyalarının büyük bir kısmı, arama sonuç sayfaları, teşekkür sayfaları, alışveriş sepeti sayfaları (e-ticaret siteleri için), etiket ve kategori arşivleri (içerik yetersizse).
*
Dizinlenmesini istedikleriniz: Tüm blog gönderileri, sayfalar, ürünler (e-ticaret), ana sayfalar, iletişim sayfaları ve bu sayfaların düzgün görünmesini sağlayan tüm CSS, JS ve görsel dosyaları.
Doğru Araçları Kullanmak: Robots Txt Üretici Yaklaşımı
Manuel olarak bir `robots.txt` dosyası oluşturmak mümkün olsa da, hatalara yol açma potansiyeli yüksektir. Bu nedenle, bir
robots.txt üretici kullanmak veya popüler
SEO eklentilerinin (Yoast SEO, Rank Math) sunduğu araçlardan faydalanmak daha güvenli bir yaklaşımdır. Bu eklentiler genellikle basit bir arayüz üzerinden `robots.txt` dosyanızı düzenlemenize olanak tanır ve temel WordPress engellemelerini otomatik olarak ekler.
Bir
robots.txt üretici genellikle size bir form sunar ve burada tarayıcı adlarını (User-agent) ve engellemek istediğiniz yolları girersiniz. Bu araçlar, doğru syntax ile bir dosya oluşturmanıza yardımcı olur. Ancak, bir üretici kullansanız bile, her bir direktifin ne anlama geldiğini anlamak ve sitenizin özel ihtiyaçlarına göre ayarlamalar yapmak sizin sorumluluğunuzdadır. Kopya yapıştır yapmadan önce içeriği mutlaka gözden geçirin.
Google Search Console ile Test Etme
Oluşturduğunuz `robots.txt` dosyasının doğru çalıştığından emin olmak için Google Search Console (GSC) en iyi arkadaşınızdır. GSC'deki "Robots.txt Test Aracı"nı kullanarak, bir URL'nin Googlebot tarafından taranıp taranamayacağını anında kontrol edebilirsiniz. Bu araç, dosyanızdaki hataları tespit etmenize ve potansiyel sorunları gidermenize yardımcı olur. `robots.txt` dosyanızı sitenize yükledikten sonra, bu aracı kullanarak tüm kritik sayfalarınızın taranabilir olduğunu doğrulamanız şarttır. Herhangi bir yanlış engelleme varsa, GSC size bunu gösterecektir.
AdSense Politikalarına Uyum
Yukarıda bahsedildiği gibi,
Google AdSense reklamlarının sitenizde etkin bir şekilde gösterilebilmesi için Googlebot'un içeriğinizi ve bu içeriğin stilini sağlayan tüm kaynakları sorunsuz bir şekilde tarayabilmesi gerekir. `robots.txt` dosyanızı yapılandırırken, özellikle `Disallow` direktiflerini kullanırken çok dikkatli olun. Asla reklam göstereceğiniz sayfaların veya bu sayfaların görsel bütünlüğünü bozan CSS/JS dosyalarının taranmasını engellemeyin. Bu, yalnızca reklam gelirlerinizi etkilemekle kalmaz, aynı zamanda sitenizin genel
SEO performansına da zarar verir. Unutmayın ki, Google'ın sitenizi kullanıcıların gördüğü gibi görebilmesi, hem
SEO hem de AdSense için temel bir gerekliliktir.
Robots.txt Dosyasının Yaygın Yanlış Kullanımları ve Kaçınılması Gerekenler
`robots.txt` dosyası güçlü bir araçtır, ancak yanlış kullanıldığında sitenize ciddi zararlar verebilir.
Önemli Sayfaların Yanlışlıkla Engellenmesi
En yaygın ve en tehlikeli hata, sitenizin temel içeriklerini veya bu içeriğin düzgün render edilmesi için gerekli olan stil ve betik dosyalarını yanlışlıkla engellemektir. Örneğin, tüm `/wp-content/` dizinini engellemek, temalarınızın ve eklentilerinizin CSS ve JS dosyalarını da engeller, bu da Googlebot'un sitenizi "çıplak" veya bozuk bir şekilde görmesine neden olur. Bu durum, arama motorlarındaki sıralamanızı olumsuz etkiler ve
Google AdSense gelirlerinizi sıfırlayabilir. Her `Disallow` kuralını uygulamadan önce, hangi dosya ve dizinleri etkilediğini iyice anlamalısınız.
Tarama Bütçesini Yanlış Yönlendirme
Yanlış yapılandırılmış bir `robots.txt`,
tarama bütçesinizi verimli kullanmanızı engelleyebilir. Çok fazla engelleme, önemli sayfaların keşfedilmesini geciktirebilirken, çok az engelleme botların değersiz sayfaları taramasına ve kıymetli bütçenizi tüketmesine neden olabilir. Amacınız, yalnızca arama sonuçlarında görünmesini istemediğiniz veya tarama bütçesini boşa harcayacak kaynakları engellemektir.
Noindex Yerine Robots.txt Kullanmak
`robots.txt` ve `noindex` meta etiketi farklı amaçlara hizmet eder ve birbirlerinin yerine kullanılmamalıdır.
*
`robots.txt`: Botların bir sayfayı *taramasını* engeller. Eğer bir sayfa `robots.txt` tarafından engellenirse, bot o sayfayı ziyaret edemez ve dolayısıyla üzerindeki `noindex` etiketini de göremez. Bu durumda, sayfa hala arama sonuçlarında "URL açıklama mevcut değil" şeklinde görünebilir.
*
`noindex`: Botların bir sayfayı *dizinlemesini* engeller, ancak sayfanın *taranmasına* izin verir. Bu, bir sayfanın arama sonuçlarında görünmesini istemediğiniz (örneğin, teşekkür sayfaları, düşük kaliteli arşivler) ancak yine de botların sayfadaki iç bağlantıları takip etmesini istediğiniz durumlarda idealdir. `/makale.php?sayfa=noindex-kullanimi` makalemizde `noindex` kullanımı hakkında daha fazla bilgi bulabilirsiniz.
Özetle, bir sayfanın arama sonuçlarında görünmesini kesinlikle istemiyorsanız, ama yine de tarama bütçenizi boşa harcamıyorsa, `noindex` etiketini kullanın. Eğer bir sayfanın veya dizinin tamamen taranmasını ve keşfedilmesini engellemek istiyorsanız (genellikle yönetim alanları gibi), `robots.txt` kullanın.
Sonuç ve Önemli Hatırlatmalar
Yeni bir
WordPress sitesi için güvenli ve etkili bir `robots.txt` dosyası oluşturmak, sitenizin
SEO başarısı, sunucu performansı ve potansiyel
Google AdSense gelirleri için kritik bir adımdır. Bu dosya, arama motoru botlarına sitenizde nasıl gezinecekleri konusunda rehberlik eder,
tarama bütçesini optimize eder ve yalnızca değerli içeriklerinizin
dizinlemeye dahil edilmesini sağlar.
Unutmayın:
*
Temel İçerikleri Asla Engellemeyin: Özellikle yayınlarınızı, sayfalarınızı ve onların düzgün görünmesini sağlayan CSS/JS dosyalarını.
*
AdSense Dostu Olun: Reklam göstereceğiniz sayfaların ve kaynaklarının taranabilir olduğundan emin olun.
*
Test Edin: Her zaman Google Search Console'daki `robots.txt` test aracını kullanarak değişikliklerinizi doğrulayın.
*
İhtiyaçlarınızı Anlayın: Her sitenin ihtiyaçları farklıdır. Genel şablonlar yerine kendi sitenize özel bir yapılandırma oluşturun. Bir
robots.txt üretici size yardımcı olabilir, ancak çıkan sonucu mutlaka manuel olarak kontrol edin.
*
Gözden Geçirin: Sitenize yeni eklentiler eklediğinizde, tema değiştirdiğinizde veya büyük yapısal değişiklikler yaptığınızda `robots.txt` dosyanızı periyodik olarak gözden geçirin.
`robots.txt` dosyası küçük ama etkisi büyük bir araçtır. Doğru kullanıldığında, yeni
WordPress sitenizin arama motorlarındaki yolculuğunu pürüzsüz hale getirecek ve uzun vadeli başarınız için sağlam bir temel atacaktır. WordPress'te SEO hakkında daha fazla bilgi edinmek için `/makale.php?sayfa=wordpress-seo-rehberi` makalemizi inceleyebilirsiniz.
Yazar: Ezgi Avcı
Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.