
Yanlış Robots.txt Dosyası Yüzünden Google Indexinden Çıkan Sayfalarımı Nasıl Kurtarırım?
Bir web sitesi yöneticisi veya SEO uzmanı olarak, sitenizin Google indeksinden kaybolduğunu fark etmek, hele de bunun kendi hatanız, yani yanlış yapılandırılmış bir `robots.txt` dosyası yüzünden olduğunu anlamak büyük bir panik ve hayal kırıklığı yaratabilir. Google AdSense gelirlerinizde ani bir düşüşle karşılaştığınızda ya da
arama motoru görünürlüğü tamamen yok olduğunda, durumun ciddiyeti daha da artar. Ancak derin bir nefes alın. Bu durum geri döndürülemez değildir ve doğru adımlarla sayfalarınızı Google indeksine geri kazandırabilirsiniz. Bu makalede, yanlış `robots.txt` yapılandırması yüzünden indeks dışı kalan sayfalarınızı kurtarmak için izlemeniz gereken detaylı adımları, bir SEO editörü olarak tüm bilgi ve deneyimimle sizinle paylaşacağım.
Öncelikle, `robots.txt` dosyasının ne olduğunu ve neden bu kadar kritik olduğunu anlamakla başlayalım. `robots.txt`, web sitenizin kök dizininde bulunan ve arama motoru örümceklerine (crawler'larına) sitenizin hangi bölümlerini tarayabileceklerini ve hangilerini tarayamayacaklarını bildiren basit bir metin dosyasıdır. Doğru kullanıldığında, sunucu kaynaklarını korur, düşük kaliteli veya hassas sayfaların indekslenmesini engeller. Ancak yanlış yapılandırıldığında, sitenizin tamamının veya önemli bölümlerinin Google ve diğer arama motorları tarafından göz ardı edilmesine neden olabilir. Bu da, potansiyel ziyaretçi kaybı, AdSense gelirlerinde düşüş ve genel dijital varlığınızda büyük bir gerileme anlamına gelir.
Robots.txt'nin Temel İşlevi ve Yanlış Yapılandırmanın Tehlikeleri
`Robots.txt` dosyası, web siteniz ile arama motoru botları arasındaki ilk iletişim noktasıdır. Bir bot sitenizi ziyaret ettiğinde, genellikle ilk olarak `robots.txt` dosyasını arar. Bu dosyadaki direktifler, botun sitenizde nasıl gezinmesi gerektiğini belirler. Örneğin, `Disallow: /wp-admin/` yönergesi, botlara WordPress yönetici panelinizi taramamalarını söylerken, `Disallow: /` yönergesi sitenizin tamamını taramalarını engeller. İşte bu ikinci senaryo, sayfalarınızın indeks dışı kalmasının en yaygın nedenidir.
Yanlış yapılandırılmış bir `robots.txt` dosyasının tehlikeleri oldukça ciddidir. Eğer sitenizin ana içeriğini barındıran dizinleri veya tüm siteyi engellediyseniz, Googlebot sayfalarınıza erişemeyecek, içeriklerinizi okuyamayacak ve dolayısıyla indeksleyemeyecektir. İndekslenmeyen sayfalar, arama sonuçlarında görünmezler. Bu da doğrudan organik trafik kaybına yol açar. Organik trafik kaybı, özellikle AdSense geliri elde eden siteler için yıkıcı olabilir, zira reklam gösterimleri ve tıklamalar için ziyaretçi trafiğine bağımlısınızdır. Ayrıca, yanlış `robots.txt` sadece yeni sayfaların indekslenmesini engellemekle kalmaz, zaten indekslenmiş olan sayfaların da zamanla arama sonuçlarından düşmesine neden olabilir, çünkü Google bu sayfaları güncelleyemez veya yeniden doğrulayamaz. Bu durum, web sitenizin
dijital pazarlama stratejisini derinden sarsar ve markanızın çevrimiçi görünürlüğünü olumsuz etkiler.
Sorunu Teşhis Etme: Neden Sayfalarım İndekslenmiyor?
Sayfalarınızın Google indeksinden çıktığını fark ettiğinizde yapmanız gereken ilk şey, sorunun kaynağını doğru bir şekilde teşhis etmektir. İşte bu noktada
Google Search Console (GSC) sizin en büyük yardımcınız olacaktır.
1.
Google Search Console'da Kapsam Raporunu İnceleyin:* GSC panelinize giriş yapın ve sol menüden "Kapsam" (Coverage) raporuna gidin.
* Burada "Hatalar" ve "Hariç Bırakılanlar" bölümlerini dikkatlice inceleyin.
* "Robots.txt tarafından engellendi" veya "Taranmadı – robots.txt tarafından engellendi" gibi durumları arayın. Bu, sorunun `robots.txt` dosyanızda olduğunu gösteren en net işarettir.
* Hatta bazı durumlarda, Google botlarının sitenizdeki önemli CSS veya JavaScript dosyalarına erişiminin engellenmesi nedeniyle sayfaların yanlış render edildiğini ve mobil uyumluluk sorunları yaşadığını görebilirsiniz. Bu da dolaylı yoldan indekslemeyi etkileyebilir.
2.
URL Denetleme Aracını Kullanın:* GSC'nin üst kısmındaki arama çubuğuna indekslenmeyen bir sayfanın URL'sini yapıştırın ve Enter tuşuna basın.
* Google'ın bu URL hakkındaki mevcut bilgilerini (indekslenip indekslenmediği, en son ne zaman tarandığı vb.) göreceksiniz.
* "Canlı URL'yi Test Et" seçeneğini kullanarak sayfanın o anki durumunu kontrol edin. Eğer `robots.txt` tarafından engelleniyorsa, araç size bunu açıkça bildirecektir. Bu test, `robots.txt` dosyanızın herhangi bir URL'yi engelleyip engellemediğini anlık olarak gösterir.
3.
Manuel Robots.txt Kontrolü:* Tarayıcınızın adres çubuğuna `yourdomain.com/robots.txt` (kendi alan adınızla değiştirin) yazarak `robots.txt` dosyanıza doğrudan erişmeye çalışın.
* Dosyanın içeriğini okuyun. Özellikle `Disallow: /` (tüm siteyi engeller) veya `Disallow: /` ile başlayan ve önemli dizinlerinizi hedefleyen yönergeleri arayın.
* Bazen dosya boş olabilir veya hiç var olmayabilir; bu da genellikle bir sorun değildir, zira botlar her şeyi tarayabilirler. Asıl sorun, yanlış engellemelerdir.
Bu adımlar, sorunun gerçekten `robots.txt` kaynaklı olup olmadığını ve hangi bölümlerin etkilendiğini anlamanıza yardımcı olacaktır.
Yanlış Robots.txt Dosyasını Düzeltme Adımları
Sorunun kaynağını tespit ettikten sonra, sıra `robots.txt` dosyasını düzeltmeye gelir. Bu süreç dikkat ve doğruluk gerektirir.
Adım 1: Mevcut Robots.txt Dosyasını İncele ve Değiştir
1.
Dosyaya Erişim: Web sitenizin kök dizinine erişmeniz gerekecek. Bunu yapmanın birkaç yolu vardır:
*
FTP/SFTP İstemcisi: FileZilla gibi bir FTP programı kullanarak sunucunuza bağlanın ve `public_html` veya `htdocs` gibi ana dizinlerde `robots.txt` dosyasını bulun.
*
cPanel Dosya Yöneticisi: Hosting sağlayıcınızın kontrol paneli (cPanel, Plesk vb.) üzerinden "Dosya Yöneticisi"ni kullanarak ana dizine gidin.
*
CMS Yönetim Paneli: Bazı içerik yönetim sistemleri (CMS) veya SEO eklentileri (örneğin WordPress için Yoast SEO veya Rank Math) kendi arayüzlerinden `robots.txt` dosyasını düzenleme imkanı sunar. Bu en kolay yöntem olabilir, ancak değişikliklerin doğru şekilde kaydedildiğinden emin olun.
2.
robots.txt dosyasını düzenleme: Dosyayı bir metin düzenleyici ile açın (Notepad, Sublime Text, VS Code vb.). İçindeki tüm satırları dikkatlice inceleyin.
*
Tüm siteyi engelleyen sorunlu satır: Eğer dosyanızda aşağıdaki gibi bir satır görüyorsanız:
```
User-agent: *
Disallow: /
```
Bu satır, tüm arama motoru botlarının sitenizin hiçbir bölümünü taramasını engeller. Bu satırı silmeniz veya `Disallow: /` satırını `Allow: /` olarak değiştirmeniz (eğer sadece ana sayfayı taratmıyorsanız) veya tamamen kaldırmanız gerekir. Genellikle `Allow: /` satırı kullanılmaz; `Disallow` yönergesi yoksa, varsayılan olarak her şeyin taranmasına izin verilir.
*
Önemli dizinleri engelleyen satırlar: Bazı durumlarda, yalnızca belirli kritik dizinleriniz engellenmiş olabilir (örneğin, blog içeriğiniz `Disallow: /blog/` ile). Bu durumda, bu satırları ya tamamen silin ya da sitenizin gerçekten indekslenmesini istemediğiniz bölümleri işaret ettiğinden emin olun.
*
Doğru bir robots.txt örneği: Sitenizin her şeyinin taranmasına izin veren ve yalnızca yönetici alanları gibi hassas yerleri engelleyen temel bir `robots.txt` şöyle görünebilir:
```
User-agent: *
Allow: /
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /cgi-bin/
Sitemap: https://www.yourdomain.com/sitemap.xml
```
Burada `User-agent: *` tüm botları hedefler. `Allow: /` her şeyi taramaya izin verirken, `Disallow` satırları belirli hassas dizinleri engeller. `Sitemap` yönergesi, arama motorlarına site haritanızın konumunu bildirir, bu da indeksleme için hayati öneme sahiptir.
*
CSS ve JS dosyalarını engelleyen satırlar: Google, web sitenizin tıpkı bir kullanıcı gibi görünmesini istediği için CSS ve JavaScript dosyalarınıza erişebilmelidir. Eğer bu tür dosyaları engelleyen `Disallow` satırları varsa, bunları mutlaka kaldırın.
Adım 2: Değişiklikleri Kaydet ve Yükle
Dosyayı doğru uzantıyla (`robots.txt`, küçük harfle) kaydettiğinizden ve sitenizin kök dizinine (public_html, htdocs vb.) yüklediğinizden emin olun. FTP kullanıyorsanız, mevcut dosyanın üzerine yazın. CMS eklentisi kullanıyorsanız, değişiklikleri kaydedin ve yayınlayın.
Adım 3: Google Search Console'da Doğrula
1.
Robots.txt Test Cihazı (Eski): GSC'de "Ayarlar" altında yer alan "Eski Araçlar ve Raporlar" kısmında "Robots.txt Test Cihazı"nı bulabilirsiniz. Buraya gidin ve dosyayı manuel olarak güncellediyseniz, üst kısımdaki "Gönder" düğmesine tıklayarak Google'a yeni `robots.txt` dosyanızı bildirmenizi sağlayın. (Not: Bu araç giderek daha az kullanılıyor ve yerini URL Denetleme aracına bırakıyor.)
2.
URL Denetleme ile Onay: Düzeltmeyi yaptıktan sonra, daha önce indekslenmeyen bir URL'yi tekrar "URL Denetleme" aracıyla test edin. Bu kez, "Robots.txt tarafından engellendi" hatasını görmemelisiniz. Canlı testin size bir engel göstermemesi, dosyanızın doğru çalıştığının güçlü bir işaretidir.
İndeksleme Sürecini Hızlandırma ve Optimizasyon
`Robots.txt` dosyanızı düzelttikten sonra, sayfalarınızın yeniden indekslenmesi için Google'ı beklemek tek seçenek değildir. Süreci hızlandırmak ve gelecekteki
SEO stratejisi için optimizasyon yapmak üzere atabileceğiniz adımlar vardır:
1.
Sitemap Gönderme:* `robots.txt` dosyanızda `Sitemap:` yönergesinin doğru URL ile bulunduğundan emin olun.
*
Google Search Console'da "Site Haritaları" bölümüne gidin ve güncel `sitemap.xml` dosyanızı yeniden gönderin. Yeni veya güncellenmiş site haritası, Googlebot'un sitenizdeki tüm önemli sayfaları kolayca bulmasına yardımcı olur. Site haritanızın nasıl oluşturulacağı ve gönderileceği hakkında daha fazla bilgi için '/makale.php?sayfa=sitemap-olusturma-rehberi' makalemize göz atabilirsiniz.
2.
URL Denetleme Aracı ile Manuel İndeksleme İsteği:* Özellikle kritik önem taşıyan ana sayfalarınız veya yüksek trafik getiren blog yazılarınız için, GSC'deki "URL Denetleme" aracını kullanarak tek tek "İndeksleme İsteği" gönderebilirsiniz. Bu, Google'a bu sayfaları öncelikli olarak taramasını ve indekslemesini bildiren doğrudan bir sinyaldir.
3.
İç Bağlantılar ve Dış Bağlantılar:* Sitenizin içindeki sayfalar arasında güçlü ve mantıklı bir iç bağlantı yapısı oluşturmak, botların tüm sayfalarınıza kolayca ulaşmasını sağlar. Anahtar kelime açısından zengin anchor text'ler kullanarak önemli sayfalarınıza iç bağlantılar verin. İç bağlantı optimizasyonu hakkında detaylı bilgi için '/makale.php?sayfa=ic-baglanti-optimizasyonu-rehberi' makalemizi okuyabilirsiniz.
* Dış bağlantılar (backlinkler) hala güçlü bir sıralama faktörüdür. Yeni ve kaliteli dış bağlantılar almak, Google'ın sitenize olan güvenini artırır ve tarama sıklığını olumlu etkiler.
4.
Web Sitesi Hızı ve Kullanıcı Deneyimi:* Hızlı yüklenen bir web sitesi, Googlebot'un daha fazla sayfayı daha kısa sürede tarayabileceği anlamına gelir (bütçe tarama). Site hızı, aynı zamanda kullanıcı deneyimi için de kritik öneme sahiptir. PageSpeed Insights gibi araçlarla sitenizin hızını kontrol edin ve iyileştirmeler yapın.
5.
İçerik Kalitesi ve Güncelliği:* Google her zaman kullanıcılarına en iyi ve en alakalı içeriği sunmayı hedefler. Sayfalarınızın yüksek kaliteli, orijinal ve güncel olduğundan emin olun. Düzenli olarak yeni ve değerli
içerik pazarlaması stratejileri uygulayarak sitenize değer katın. Kaliteli içerik, hem kullanıcıları hem de arama motorlarını memnun eder.
Gelecekteki Robots.txt Hatalarından Korunma
Bir kere bu sorunu yaşadıktan sonra, bir daha tekrarlamamak için önlemler almak istersiniz.
1.
Robots Txt Üretici Araçları Kullanın: Kendi `robots.txt` dosyanızı manuel olarak yazmak yerine, çevrimiçi
Robots Txt Üretici araçlarını kullanmak hataları minimize edebilir. Bu araçlar, doğru söz dizimini kullanarak yönergeleri oluşturmanıza yardımcı olur.
2.
Düzenli Test ve Gözden Geçirme: Herhangi bir büyük site değişikliğinden sonra veya periyodik olarak, `robots.txt` dosyanızı GSC'deki URL Denetleme aracıyla test edin.
3.
Temel Direktifleri Anlayın: `User-agent`, `Disallow`, `Allow`, `Crawl-delay` ve `Sitemap` gibi temel `robots.txt` yönergelerinin ne anlama geldiğini ve nasıl kullanılacağını iyi anlayın.
4.
Kritik Dosyaları Engellemeyin: CSS, JavaScript ve görseller gibi, sitenizin doğru bir şekilde görünmesi ve çalışması için gerekli olan dosyaların taranmasını asla engellemeyin. Google'ın "Mobil Uyumlu" bir site olarak değerlendirebilmesi için bunlara erişimi olmalıdır.
5.
Google AdSense Politikaları ile Uyumluluk: AdSense, reklam gösterimi için içeriğinizin erişilebilir olmasını gerektirir. `robots.txt` ile sitenizin içeriğini engellemek, doğrudan AdSense politikalarını ihlal etmese de, reklam gösterimlerini ve dolayısıyla gelirinizi kesintiye uğratarak dolaylı bir olumsuz etki yaratır. Sayfalarınızın indekslenmemesi, AdSense'in reklamları gösterecek bir yer bulamaması anlamına gelir.
Sonuç olarak, yanlış `robots.txt` dosyasının neden olduğu indeks dışı kalma durumu stresli olsa da, doğru teşhis ve sistematik düzeltme adımlarıyla tamamen çözülebilir. Sabırlı olun, Google Search Console'u etkin bir şekilde kullanın ve sitenizin genel SEO sağlığına dikkat edin. Bu adımları izleyerek, sayfalarınızı Google indeksine geri kazandırabilir ve sitenizin
arama motoru görünürlüğünü, trafik akışını ve dolayısıyla AdSense gelirlerinizi tekrar istikrarlı hale getirebilirsiniz. Unutmayın, dijital varlığınızın omurgası sağlıklı bir indeksleme sürecinden geçer.
Yazar: Ezgi Avcı
Ben Ezgi Avcı, bir Dijital Pazarlama Uzmanı. Platformumuzda teknolojiyi herkes için anlaşılır kılmak, karmaşık konuları basitleştirerek okuyucularımızın günlük yaşamında pratik olarak kullanabileceği bilgiler sunmak, yeni beceriler kazandırmak, farkındalık oluşturmak ve teknoloji dünyasındaki gelişmeleri anlaşılır bir dille aktarmak amacıyla yazıyorum.