Anthropic şirketi, Claude adındaki jeneratif yapay zeka modelinin arkasında yer alıyor ve web tarayıcılarıyla ilgili belgelerini güncelledi. Artık üç robot net bir şekilde tanımlanmış durumda: ClaudeBot, Claude-User ve Claude-SearchBot. Her biri, veri toplama ve erişim konusunda belirli bir rol üstleniyor. Bu şeffaflık, web sitesi yayıncılarının görünürlüklerini ve yapay zeka modellerinin eğitimine katılımlarını daha iyi kontrol etmelerine yardımcı olmayı amaçlıyor.

Önemli Noktalar:

  • Üç tanımlanmış robot: ClaudeBot, Claude-User ve Claude-SearchBot her biri farklı bir işlev üstleniyor.
  • Web siteleri için güçlendirilmiş kontrol: robots.txt dosyası ve Crawl-delay direktifi aracılığıyla yayıncılar, geçişlerine izin verip vermemeye karar verebiliyorlar.
  • Görünürlük üzerindeki etki: bu tarayıcıların engellenmesi, sitenin arama sonuçlarındaki veya yapay zeka eğitim verilerindeki varlığını sınırlayabilir.
  • Son güncelleme: belgeler 20 Şubat 2026'da güncellenmiştir, bu durumu X platformunda Pedro Dias fark etti.

Anthropic Robotları Üzerine Açıklayıcı Belgeler

Anthropic, web tarayıcılarının sunumunu ve açıklamalarını gözden geçirerek, amaçlarını ve engellenmesinin sonuçlarını netleştirdi. Artık üç bot ayrı ayrı tanımlanıyor.

  • ClaudeBot, Anthropic'in yapay zeka modellerini zenginleştirmek ve güvence altına almak için web üzerindeki kamuya açık içeriği toplar. Eğer bir site erişimini engellerse, bu, o sitenin içeriklerinin gelecekteki Claude modelinin eğitim verilerine dahil edilmeyeceği anlamına gelir.
  • Claude-User, kullanıcılar tarafından yapılan sorgular çerçevesinde devreye girer. Birisi Claude'a bir soru sorduğunda, bu robot belirli web sayfalarına erişerek daha iyi belgelenmiş bir yanıt sağlamaya çalışır. Erişimini engellemek, Claude'un bu kaynakları inceleme yeteneğini azaltır ve dolayısıyla bu sitelerin etkileşimler sırasında üretilen sonuçlardaki görünürlüğünü de azaltır.
  • Claude-SearchBot ise, kullanıcıların modeldeki arama sonuçlarının alaka düzeyini ve doğruluğunu artırmak için webi keşfeder. Engellenmesi, sitenin bu dizinde dikkate alınmamasına neden olur ve sonuçların gösterimindeki varlığını azaltabilir.

Anthropic, robotlarının robots.txt dosyasını ve Crawl-delay direktifini desteklediğini belirtir; bu da web yöneticilerine tarama sıklığını yönetme ve sitelerinin belirli alanlarına izin verme veya vermeme yetkisi tanır. Bu gelişme, büyük yapay zeka aktörlerinin kamuya açık veri toplama konusundaki şeffaflık eğiliminde bir artışın parçasıdır.