
Googlebot'un Belirli Klasörleri Taramasını Nasıl Engellersiniz (Diğer Sayfaları Etkilemeden)?
Dijital dünyada varlık gösteren her web sitesi sahibi için arama motorlarıyla etkili bir iletişim kurmak hayati önem taşır. Bu iletişimin en temel araçlarından biri de
robots.txt dosyasıdır. Özellikle Google AdSense yayıncıları ve genel olarak SEO uzmanları için, Googlebot'un sitenizdeki hangi içeriği tarayabileceğini veya hangi içeriği göz ardı etmesi gerektiğini yönetmek, hem sitenizin performansını artırmak hem de potansiyel politika ihlallerinden kaçınmak adına kritik bir beceridir. Bu kapsamlı rehberde, Googlebot'un belirli klasörleri diğer sayfaları etkilemeden nasıl taramasını engelleyeceğinizi detaylı bir şekilde inceleyeceğiz. Amacımız, sitenizin değerini artırırken aynı zamanda sunucu kaynaklarınızı optimize etmektir.
Web siteniz büyüdükçe ve içerik çeşitlendikçe, her sayfanın arama motorları tarafından indekslenmesini istemeyebilirsiniz. Yönetici panelleri, hassas kullanıcı verileri içeren klasörler, geliştirme aşamasındaki sayfalar veya düşük kaliteli, yinelenen içerikler, sitenizin genel
SEO değerini düşürebilir ve hatta AdSense program politikalarıyla çelişebilir. İşte tam bu noktada
robots.txt dosyası devreye girerek,
Googlebot ve diğer arama motoru örümceklerine yol gösterme işlevini üstlenir.
Neden Belirli Klasörleri Engellemelisiniz?
Googlebot'un sitenizdeki her klasörü veya sayfayı taramasını engellemek için birden fazla geçerli neden bulunmaktadır. Bu nedenler genellikle site performansı, güvenlik, gizlilik ve arama motoru optimizasyonu hedefleriyle örtüşür.
AdSense Politikaları Uyumluluğu
Google AdSense yayıncısıysanız, politikalarınızı iyi bilmeniz ve buna uygun hareket etmeniz gerekmektedir. Düşük kaliteli, yetersiz içeriğe sahip veya politika ihlali teşkil eden sayfaların arama motoru tarafından indekslenmesi, sitenizin genel AdSense onayını veya reklam gösterimlerini olumsuz etkileyebilir. Örneğin, bir test sayfası, kullanıcıların kişisel bilgilerini içeren bir form sayfası veya içerik açısından zayıf bir
dizin sayfasına reklam yerleştirilmesi AdSense politikalarına aykırı olabilir. Bu tür klasörlerin Googlebot tarafından taranmasını engellemek, olası politika ihlallerinin önüne geçerek reklam gelirlerinizin sürekliliğini sağlamanıza yardımcı olur. Bu, aynı zamanda sitenizin genel kalitesini Google'ın gözünde yüksek tutmanın da bir yoludur.
Tarama Bütçesi Optimizasyonu
Her web sitesinin, Googlebot'un sitenizde ayırdığı belirli bir "tarama bütçesi" vardır. Özellikle büyük siteler veya çok sık güncellenen siteler için bu bütçeyi akıllıca kullanmak, arama motorlarının en önemli ve değerli içeriğinizi daha sık ziyaret etmesini sağlamak anlamına gelir. Düşük değerli veya taramaya gerek olmayan klasörleri engellemek,
tarama bütçesinizi daha verimli kullanmanıza olanak tanır. Böylece Googlebot, zamanını sitenizin en kritik sayfalarına ayırır ve bu da sitenizin arama sonuçlarındaki görünürlüğünü artırır. Bu optimizasyon, sunucu yükünü de hafifletir ve kaynaklarınızı daha önemli işlevler için serbest bırakır.
Gizlilik ve Güvenlik Endişeleri
Web sitenizde hassas veriler barındıran klasörler olabilir. Bunlar genellikle yönetici panelleri (/admin, /wp-admin), geçici dosyaların bulunduğu klasörler (/temp), kullanıcıların özel bilgilerini içeren alanlar veya test ortamları (/dev, /staging) olabilir. Bu tür klasörlerin arama motorları tarafından indekslenmesi, potansiyel güvenlik açıklarına veya veri ihlallerine yol açabilir.
Robots.txt ile bu klasörleri engellemek, bunların arama sonuçlarında görünmesini engeller ve dolayısıyla kötü niyetli kişilerin bu alanlara ulaşmasını zorlaştırır. Ancak unutulmamalıdır ki `robots.txt` sadece bir direktiftir; tam bir güvenlik sağlamaz. Gerçek güvenlik için güçlü parolalar, erişim kısıtlamaları ve diğer güvenlik önlemleri şarttır.
Düşük Kaliteli veya Yinelenen İçerik
Web sitenizde otomatik olarak oluşturulan sayfalar, filtreleme sonuçları, sıralama seçenekleri veya arşiv sayfaları gibi çok sayıda düşük kaliteli veya başka bir sayfayla neredeyse aynı içeriğe sahip sayfalar bulunabilir. Bu tür içeriklerin arama motorları tarafından indekslenmesi, sitenizin genel kalite algısını düşürebilir ve "yinelenen içerik" cezasına yol açmasa bile, sitenizin sıralamasını olumsuz etkileyebilir. Bu klasörleri engellemek, arama motorlarının yalnızca benzersiz ve değerli içeriğinize odaklanmasını sağlar.
Robots.txt Dosyasını Anlamak
Googlebot'un belirli klasörleri taramasını engellemenin temel aracı, web sitenizin kök
dizininde bulunan
robots.txt dosyasıdır. Bu dosya, adından da anlaşılacağı gibi, web robotları (örümcekler, tarayıcılar) için bir talimat dosyasıdır.
Nedir ve Nerede Bulunur?
`robots.txt`, web sitesi dizininizin en üst seviyesinde, yani ana kök dizinde bulunan basit bir metin dosyasıdır. Örneğin, `www.siteniz.com/robots.txt` adresinden erişilebilir olmalıdır. Bu dosya, bir web sunucusuna bağlanan herhangi bir robotun, o sunucudaki hangi URL'lere erişmemesi gerektiğini bildirir.
Nasıl Çalışır?
`robots.txt` dosyası, "User-agent" ve "Disallow" yönergelerini kullanarak çalışır.
*
User-agent: Bu yönerge, talimatların hangi arama motoru robotu için geçerli olduğunu belirtir. Örneğin, `User-agent: Googlebot` yalnızca Google'ın örümceği için geçerli olurken, `User-agent: *` tüm arama motoru örümcekleri için geçerli anlamına gelir.
*
Disallow: Bu yönerge, belirli bir dosyanın, klasörün veya dosya grubunun taranmasını engellemek için kullanılır. Engellenmek istenen yol, sitenin kök dizinine göre belirtilir.
Önemli Bir Uyarı: Robots.txt Gizlilik Sağlamaz!
En önemli noktalardan biri,
robots.txt dosyasının bir güvenlik veya gizlilik mekanizması olmadığıdır. Bu dosya herkese açıktır ve herhangi biri tarafından görüntülenebilir. `robots.txt` sadece iyi niyetli arama motoru örümceklerine bir tavsiye sunar. Kötü niyetli botlar veya doğrudan URL'ye erişen kullanıcılar bu talimatları görmezden gelebilir. Bu nedenle, gerçekten hassas olan içeriği şifrelemek, parola koruması eklemek veya `.htaccess` gibi sunucu tabanlı erişim kontrol mekanizmaları kullanmak esastır. `robots.txt` ile engellenen bir sayfa, yine de başka bir yerden bağlantı alıyorsa veya başka bir yolla keşfedilirse, indekslenebilir. Eğer bir sayfanın arama sonuçlarında görünmemesini ve taranmamasını kesinlikle istiyorsanız, `noindex` meta etiketi veya HTTP X-Robots-Tag kullanmayı düşünmelisiniz.
Belirli Klasörleri Engellemek İçin Robots.txt Kullanımı
Şimdi gelelim `robots.txt` dosyasını kullanarak belirli klasörleri
Googlebot'un taramasını nasıl engelleyeceğimize dair pratik örneklere.
Tek Bir Klasörü Engelleme
En yaygın senaryo, sitenizdeki tek bir klasörü veya
dizini engellemektir. Örneğin, tüm yönetici paneli dosyalarınızın `/admin/` klasöründe olduğunu varsayalım.
```
User-agent: *
Disallow: /admin/
```
Bu örnekte:
* `User-agent: *` tüm arama motoru botlarına bu direktifi uygulamasını söyler.
* `Disallow: /admin/` ise sitenizin kök dizinindeki `/admin/` klasörünün içindeki tüm dosya ve alt klasörlerin taranmasını engeller. Sondaki eğik çizgi (/) önemlidir; bu, "admin" ile başlayan tüm dosya adlarını değil, sadece bir klasör olan "/admin/"
dizinini hedeflediğinizi belirtir.
Birden Fazla Klasörü Engelleme
Birden fazla klasörü engellemek isterseniz, her biri için ayrı bir `Disallow` yönergesi eklemeniz yeterlidir.
```
User-agent: *
Disallow: /admin/
Disallow: /test-sayfalari/
Disallow: /gecici-dosyalar/
```
Bu yapı, belirtilen her bir klasörün ayrı ayrı taranmasını engelleyecektir.
Tüm Arama Motorları İçin Engelleme vs. Belirli Botlar İçin Engelleme
Yukarıdaki örneklerde `User-agent: *` kullandık, bu da direktifin tüm robotlar için geçerli olduğu anlamına gelir. Ancak bazen sadece Googlebot'un veya belirli bir arama motoru botunun belirli bir klasörü taramasını engellemek isteyebilirsiniz.
Sadece Googlebot için engellemek:
```
User-agent: Googlebot
Disallow: /ozel-klasor/
```
Sadece Bing'in botu (Bingbot) için engellemek:
```
User-agent: Bingbot
Disallow: /bing-icin-ozel-klasor/
```
Farklı botlar için farklı direktifler tanımlayabilirsiniz. Önemli olan, her `User-agent` direktifinin kendi `Disallow` direktiflerini izlemesidir.
Engellemeyi Geri Alma (İzin Verme)
Normalde, bir klasörü engellemeyi bırakmak için `robots.txt` dosyasından ilgili `Disallow` satırını kaldırmanız yeterlidir. Ancak, belirli bir
dizini engellediğiniz halde, o
dizinin içindeki belirli bir dosyaya izin vermek isteyebilirsiniz. Bu durumda `Allow` yönergesini kullanabilirsiniz. `Allow` yönergesi, `Disallow` yönergesinden sonra gelmelidir.
Örneğin, `/klasor_adi/` dizinindeki her şeyi engellemek ancak `/klasor_adi/onemli-sayfa.html` dosyasının taranmasına izin vermek için:
```
User-agent: *
Disallow: /klasor_adi/
Allow: /klasor_adi/onemli-sayfa.html
```
Bu, özellikle WordPress gibi CMS sistemlerinde ortaya çıkan, belirli bir genel kategori engellenirken, o kategorideki tek bir özel sayfanın indekslenmesinin istenebileceği durumlarda faydalı olabilir.
Yaygın Hatalar ve Dikkat Edilmesi Gerekenler
`Robots.txt` kullanımı basit görünse de, yapılan küçük hatalar sitenizin arama motorlarındaki görünürlüğünü ciddi şekilde etkileyebilir.
*
Yanlış Klasör Yolları: Klasör yollarını doğru belirttiğinizden emin olun. Başlangıçtaki eğik çizgi (/) sitenizin kök dizinini ifade eder. Sondaki eğik çizgi, bir
dizini mi yoksa bir dosyayı mı hedeflediğinizi ayırt etmenize yardımcı olur. Örneğin, `Disallow: /veriler` hem `/veriler` klasörünü hem de `/verilerim.html` gibi `veriler` ile başlayan dosyaları engelleyebilirken, `Disallow: /veriler/` yalnızca `/veriler/` klasörünü ve içindekileri engeller.
*
Sitemap (Site Haritası) Kullanımı: `Robots.txt` ile engellediğiniz sayfaları
site haritasınıza (`sitemap.xml`) eklemeyin. Bir sayfa `robots.txt` ile engellenmişse, arama motorları onu taramaz ve
site haritasında yer alması anlamsızdır. Hatta bu durum, arama motorlarına çelişkili sinyaller göndererek karmaşıklığa neden olabilir. İlgili olarak, /makale.php?sayfa=sitemap-olusturma-rehberi gibi bir içeriğe bu noktadan bağlantı verilebilir.
*
Yanlış Anlama: Gizlilik Aracı Değildir: Daha önce de belirtildiği gibi, `robots.txt` gizlilik aracı değildir. Hassas bilgileri yalnızca bu dosyaya güvenerek korumaya çalışmayın.
*
Robots.txt Test Araçları: Google Search Console'da bulunan `robots.txt` test aracı, yaptığınız değişikliklerin doğru çalıştığından ve yanlışlıkla önemli sayfaları engellemediğinizden emin olmanızı sağlar. Yeni bir `Disallow` kuralı eklemeden önce bu aracı kullanarak test etmek, büyük sorunların önüne geçer. Bu, siteniz için bir 'Robots Txt Üretici' mantığıyla hareket etmenizi sağlar.
*
URL Parametreleri: Dinamik olarak oluşturulan URL'leri (örneğin, `/urunler?renk=mavi&beden=L`) engellemek isterseniz, joker karakterleri (`*`) kullanabilirsiniz. Örneğin: `Disallow: /urunler?*renk=*`. Ancak bu konuda dikkatli olun, çünkü yanlış kullanım önemli sayfaların da engellenmesine yol açabilir. Bu tür durumlarda, Google Search Console'daki URL Parametre Aracı da faydalı olabilir.
Diğer Sayfaları Etkilemeden Engelleme Stratejileri
Amacımız, belirli klasörleri engellerken sitenizin diğer kısımlarının arama motoru görünürlüğünü olumsuz etkilememektir. Bunu sağlamak için şu stratejileri izleyebilirsiniz:
1.
Açık ve Spesifik Direktifler: `Disallow` yönergelerinizi mümkün olduğunca spesifik tutun. Sadece engellemek istediğiniz klasör veya dosya yolunu tam olarak belirtin. Genel joker karakter kullanımlarından kaçının, aksi takdirde beklenmedik
dizinler de etkilenebilir.
2.
Düzenli Kontrol ve Test: `Robots.txt` dosyanızda bir değişiklik yaptığınızda, Google Search Console'daki `robots.txt` test aracını kullanın. Ayrıca, önemli sayfalarınızın hâlâ taranıp indekslendiğinden emin olmak için Search Console'daki URL Denetleme aracını da kullanın. Bu düzenli kontroller, yanlışlıkla yapılan hataları erkenden tespit etmenizi sağlar.
3.
AdSense Politikalarına Hassas Yaklaşım: AdSense politikalarına uygunluk, yayıncılar için kritik öneme sahiptir. Düşük değerli veya politikalarla çelişen içeriği barındıran klasörleri proaktif bir şekilde engelleyerek olası ihlallerin önüne geçin. Bu, hem sitenizin itibarını korur hem de reklam gelirlerinizin sürdürülebilirliğini sağlar.
4.
Noindex Kullanımını Düşünün: Eğer bir sayfanın arama sonuçlarında görünmesini kesinlikle istemiyorsanız ancak yine de taranabilir olmasını istiyorsanız (örneğin, dahili bağlantı değerinin akmasını sağlamak veya kullanıcıların doğrudan erişmesine izin vermek), `robots.txt` yerine `noindex` meta etiketini veya X-Robots-Tag HTTP başlığını kullanmayı düşünün. `noindex` direktifi, arama motoruna sayfayı indekslememesini söylerken, `robots.txt` taramasını engeller. Bazen her ikisine de ihtiyaç duyulabilir. Örneğin, hassas kullanıcı verileri içeren bir form sayfasını arama sonuçlarından tamamen çıkarmak için `/makale.php?sayfa=noindex-kullanimi-rehberi` gibi bir rehbere başvurmak isteyebilirsiniz.
Sonuç
Robots.txt dosyası, web sitenizin arama motoru optimizasyonunda ve genel yönetiminde güçlü bir araçtır. Belirli klasörlerin
Googlebot tarafından taranmasını doğru bir şekilde engelleyerek,
tarama bütçesinizi optimize edebilir, hassas verilerinizi koruyabilir ve sitenizin genel
SEO performansını artırabilirsiniz. Ayrıca,
AdSense politikalarına uygunluğu sağlayarak olası ihlallerin önüne geçmek, sürdürülebilir bir reklam geliri elde etmek için kritik öneme sahiptir.
Unutmayın, `robots.txt` bir öneri mekanizmasıdır ve tamamen bir güvenlik önlemi değildir. Her zaman net, spesifik direktifler kullanın ve yaptığınız değişiklikleri test edin. Bu sayede, sitenizin değerini en üst düzeye çıkarırken, istenmeyen içeriğin arama motorları tarafından göz ardı edilmesini sağlarsınız.
Yazar: Ezgi Avcı
Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.