FreeSEOTools.io
🤖
ÜcretsizTechnical SEO

Robots.txt Analizörü

Herhangi bir web sitesinin robots.txt dosyasını getirin ve analiz edin. AI botlarının (GPTBot, ClaudeBot, PerplexityBot, Google-Extended) izinli mi yoksa engellenmiş mi olduğunu anında kontrol edin, tüm tarama kurallarını görüntüleyin ve sitemap bildirimlerini keşfedin.

robots.txt'yi analiz etmek için yukarıya bir alan adı veya URL girin

Robots.txt Analizörü Nasıl Kullanılır?

Herhangi bir alan adı veya URL girin ve Analiz Et'e tıklayın. Araç, robots.txt dosyasını sunucudan alır ve tüm yönergeleri ayrıştırır. Sonuçlar; AI bot erişim durumunu (izinli, engellenmiş veya kısmi), tüm bildirilen sitemap URL'lerini, User-agent, Allow, Disallow ve Crawl-delay değerlerini içeren tam kural tablosunu ve ham robots.txt içeriğini kapsar.

SEO'ya Zarar Veren Yaygın Robots.txt Hataları

CSS ve JavaScript'i Engellemek: Googlebot CSS/JS dosyalarınıza erişemezse sayfalarınızı doğru şekilde oluşturamaz. Bu, Google'ın içeriğinizi yanlış anlamasına veya önemli yapılandırılmış verileri kaçırmasına neden olabilir.

Geliştirme Sırasında Disallow Kullanmak: Hazırlama siteleri genellikle 'Disallow: /' ile doğru şekilde yapılandırılır, ancak bu kural bazen production ortamına aktarılır. Her büyük dağıtımdan sonra robots.txt dosyasını kontrol edin.

Sitemap Bildirimi Eksikliği: robots.txt dosyasına Sitemap: https://example.com/sitemap.xml eklemek, tüm büyük tarayıcıların sitemap'inizi dizinlerinde olup olmadığından bağımsız olarak bulmasını sağlar.

Büyük/Küçük Harf Duyarlı Yollar: User-agent eşleştirmesi büyük/küçük harfe duyarsızdır, ancak yol eşleştirmesi büyük/küçük harfe duyarlıdır. Disallow: /Admin, büyük/küçük harfe duyarlı sunucularda /admin'i engellemez.

Sık Sorulan Sorular

Robots.txt dosyası nedir ve SEO için neden önemlidir?

Robots.txt dosyası, alan adınızın kökünde bulunan (örn. example.com/robots.txt) düz metin bir dosyadır ve web tarayıcılarına hangi sayfalara veya bölümlere erişip erişemeyeceklerini bildirir. Robots Dışlama Protokolü'nün bir parçasıdır. SEO açısından robots.txt, Googlebot'un hangi sayfaları tarayacağını denetler, büyük sitelerde tarama bütçesinin yönetilmesine yardımcı olur ve yinelenen ya da düşük değerli sayfaların tarama kaynaklarını tüketmesini önler. Yanlış yapılandırılmış bir robots.txt, sitenizin tüm bölümlerinin yanlışlıkla indeksden dışlanmasına neden olabilir.

Disallow ile noindex arasındaki fark nedir?

Robots.txt'deki Disallow, tarayıcıların bir URL'ye erişmesini engeller; ancak diğer sayfalar o URL'ye bağlantı veriyorsa URL yine de arama sonuçlarında görünebilir (Google içeriği taramadan URL'yi indeksleyebilir). noindex meta etiketi veya HTTP başlığı ise tarayıcılara sayfayı tarayabileceklerini ancak arama sonuçlarına dahil etmemeleri gerektiğini bildirir. İndekslemeyi önlemek için noindex kullanın. Taranmasını kesinlikle istemediğiniz sayfalarda (yönetici alanları gibi) tarama bütçesini korumak için Disallow kullanın. Aynı sayfada hem Disallow hem de noindex kullanmayın — Disallow ayarlandığında Google noindex yönergesini okuyamaz.

GPTBot ve ClaudeBot gibi AI botlarını nasıl engellerim?

AI eğitim botlarını engellemek için robots.txt dosyanıza özel User-agent kuralları ekleyin. Örneğin: User-agent: GPTBot, ardından Disallow: / yazarak tüm OpenAI GPTBot erişimini engelleyebilirsiniz. ClaudeBot (Anthropic) için User-agent: ClaudeBot ve Disallow: / ekleyin. Ayrıca User-agent: * ile Disallow: / kullanarak tüm botları engelleyip ardından Googlebot'u seçici olarak izin verebilirsiniz. AI botları engellemenin, Googlebot veya diğer önemli tarayıcıları yanlışlıkla engellemedikçe arama motoru sıralamalarınızı etkilemediğini unutmayın.

Robots.txt, Core Web Vitals veya sayfa hızını etkiler mi?

Robots.txt'nin kendisi Core Web Vitals'ı etkilemez. Ancak Googlebot'un CSS ve JavaScript dosyalarına erişimini engellemek, Google'ın sayfalarınızı doğru şekilde oluşturmasını engelleyebilir; bu da Google'ın içeriğinizi yanlış yorumlamasına ve sıralamalarınızın etkilenmesine yol açabilir. Sayfalarınızın oluşturulması için gereken JS ve CSS dosyaları dahil tüm kaynaklara her zaman Googlebot erişimine izin verin. Google'ın sayfalarınızı nasıl oluşturduğunu görmek için Google Search Console'un URL İnceleme aracını kullanın.

İlgili Araçlar

Kapsamlı Teknik Bir SEO Denetimi mi İstiyorsunuz?

SEO uzmanlarımız robots.txt, sitemap, tarama bütçesi ve teknik yapılandırmanızı inceleyerek siteniz için eksiksiz bir eylem planı oluşturur.

Get a Free SEO Audit