بهترین تنظیمات Robots.txt برای فروشگاه‌های ووکامرسی

می‌دونید که یه فایل کوچیک به اسم robots.txt می‌تونه سئوی فروشگاه ووکامرسی‌تون رو زیر و رو کنه؟ اگه درست تنظیمش کنید، موتورهای جستجو مثل گوگل دقیقاً همون صفحاتی رو می‌بینن که شما می‌خواهید و از هدر رفتن وقتشون روی صفحات بی‌فایده جلوگیری می‌کنه. اما اگه اشتباه کنید، ممکنه محصولاتتون از نتایج جستجو غیبشون بزنه یا صفحات تکراری سایتتون رو شلوغ کنه.

توی این مقاله، قراره بهترین تنظیمات robots.txt رو برای سایت‌های ووکامرسی بهتون آموزش بدم. این تنظیمات برای فروشگاه‌های حرفه‌ای با فیلترهای پیشرفته، کمپین‌های بازاریابی و ترافیک بالا طراحی شده. پس اگه دنبال یه راهنمای کامل و کاربردی هستید، سایت درستی اومدین!

Robots.txt چیه و چرا برای سئو مهمه؟

فایل robots.txt مثل یه تابلوی راهنما برای ربات‌های موتورهای جستجو میمونه. بهشون می‌گه که کدوم صفحات سایت رو باید ببینن (crawl) و کدوم‌ها رو نادیده بگیرن. توی یه فروشگاه ووکامرسی، این موضوع خیلی حساس‌تره چون:

  • صفحات محصولات و دسته‌بندی‌ها باید حتماً ایندکس بشن تا مشتری‌ها پیداتون کنن.
  • صفحاتی مثل سبد خرید، پرداخت یا فیلترهای پویا نباید ایندکس بشن، چون یا شخصی‌ان یا محتوای تکراری تولید می‌کنن.
  • بودجه خزش (crawl budget) محدوده و باید روی صفحات مهم متمرکز بشه.

تنظیمات اشتباه توی این فایل می‌تونه باعث بشه گوگل وقتش رو صرف صفحات بی‌ارزش کنه و محصولاتتون رو نادیده بگیره.

 

تنظیمات Robots.txt
تنظیمات Robots.txt

بهترین فایل Robots.txt برای ووکامرس

اینجا یه نمونه کامل و حرفه‌ای از فایل robots.txt رو برای یه فروشگاه ووکامرسی می‌بینید. این تنظیمات برای سایت‌هایی با افزونه‌های فیلتر، کمپین‌های بازاریابی و حجم بالای محصولات بهینه شده:

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-includes/
Disallow: /?s=
Disallow: /cart/
Disallow: /checkout/
Disallow: /my-account/
Disallow: /add-to-cart/
Disallow: /wp-json/
Disallow: /trackback/
Disallow: /xmlrpc.php
Disallow: /feed/
Disallow: /comments/
Disallow: /*add-to-cart=*
Disallow: /*?orderby=*
Disallow: /*?filter_*
Disallow: /*?rating=*
Disallow: /*?utm_*
Disallow: /shop/*?*source_id=*
Disallow: /shop/*?*source_tax=*
Disallow: /shop/*?*query_type_color=*
Disallow: /shop/*?*instock_filter=*
Disallow: /shop/page/*
Disallow: /shop/?*

Allow: /wp-content/uploads/
Allow: /wp-content/plugins/*.css
Allow: /wp-content/plugins/*.js
Disallow: /wp-content/plugins/

Sitemap: https://example.com/sitemap_index.xml

 

نکته: آدرس https://example.com/sitemap_index.xml رو با آدرس نقشه سایت خودتون جایگزین کنید.

 

چرا این کد بهترین تنظیمات Robots.txt برای ووکامرس هست؟

بیاید چندتا از بخش‌های کلیدی این فایل رو با هم بررسی کنیم تا بفهمیم چرا این نسخه برای ووکامرس حرف نداره:

1. مدیریت هوشمند AJAX

  • Disallow: /wp-admin/ و Allow: /wp-admin/admin-ajax.php:
    پنل مدیریت رو کامل مسدود کردیم، ولی به فایل admin-ajax.php اجازه دسترسی دادیم. چرا؟ چون ووکامرس برای کارهایی مثل فیلتر محصولات، بارگذاری داینامیک و به‌روزرسانی سبد خرید به این فایل وابسته‌ست. اگه اینو مسدود کنید، ممکنه عملکرد سایتتون برای ربات‌ها درست دیده نشه.

2. جلوگیری از محتوای تکراری

  • Disallow: /*?orderby=*، /*?filter_*، /*?rating=*:
    توی فروشگاه‌های ووکامرسی، فیلترها (مثل مرتب‌سازی قیمت یا رنگ) و امتیازدهی‌ها کلی صفحه پویا تولید می‌کنن که محتوای اصلیشون فرقی با صفحه اصلی محصول نداره. مسدود کردن این پارامترها جلوی ایندکس شدن محتوای تکراری رو می‌گیره و سئوتون رو تمیز نگه می‌داره.

3. مسدود کردن صفحات پویا و شخصی

  • Disallow: /cart/، /checkout/، /my-account/، /*add-to-cart=*:
    این صفحات برای هر کاربر متفاوته و ارزش سئویی ندارن. اگه ایندکس بشن، فقط بودجه خزش رو هدر می‌دن و ممکنه مشکلات امنیتی به وجود بیارن.

4. حذف پارامترهای بازاریابی

  • Disallow: /*?utm_*:
    پارامترهای UTM برای ردیابی کمپین‌های بازاریابی (مثل گوگل ادز) عالی‌ان، ولی نباید توی نتایج جستجو ظاهر بشن. این خط باعث می‌شه گوگل فقط صفحه اصلی رو ببینه و نسخه‌های UTM رو نادیده بگیره.

5. بهینه‌سازی بودجه خزش

  • Disallow: /shop/page/*، /shop/?*:
    صفحات صفحه‌بندی (pagination) فروشگاه رو مسدود کردیم. این کار باعث می‌شه ربات‌ها روی خود محصولات و دسته‌بندی‌ها تمرکز کنن، نه روی نسخه‌های تکراری صفحه‌بندی.

6. دسترسی به تصاویر

  • Allow: /wp-content/uploads/:
    تصاویر محصولات برای سئوی تصاویر و جذب ترافیک از گوگل ایمیج خیلی مهمن. این خط مطمئن می‌شه که ربات‌ها بهشون دسترسی دارن.

 

robots.txt برای وردپرس
robots.txt برای وردپرس

مقایسه با تنظیمات ساده‌تر

شاید بگید: “یه robots.txt ساده‌تر نمی‌تونه کارمون رو راه بندازه؟” بیاید یه نمونه ساده‌تر رو ببینیم:

User-agent: *
Disallow: /wp-admin/
Disallow: /cart/
Disallow: /checkout/
Allow: /wp-content/uploads/
Sitemap: https://example.com/sitemap.xml

 

این نسخه برای یه سایت کوچیک کافیه، ولی برای فروشگاه‌های ووکامرسی بزرگ که پر از فیلتر، پارامتر و افزونه‌ست، خیلی ابتداییه. نسخه حرفه‌ای که بالاتر نوشتم:

  • پارامترهای پویا رو دقیق‌تر کنترل می‌کنه.
  • از هدر رفتن بودجه خزش جلوگیری می‌کنه.
  • با افزونه‌های فیلتر و کمپین‌های بازاریابی سازگاره.

 

چطور این فایل رو پیاده‌سازی و تست کنیم؟

  1. اضافه کردن فایل:
    • اگه فایل robots.txt توی ریشه سایتتون (مثل example.com/robots.txt) وجود داره، این کدها رو جایگزین کنید.
    • اگه نیست، با یه ویرایشگر متن فایل رو بسازید و توی هاستتون آپلود کنید.
  2. تست با ابزارها:
    • از Google Search Console (بخش “Robots.txt Tester”) استفاده کنید تا مطمئن بشید تنظیمات درست کار می‌کنه.
    • با ابزارهایی مثل Screaming Frog چک کنید که صفحات مهم هنوز قابل خزش هستن یا نه.
  3. به‌روزرسانی نقشه سایت:
    • مطمئن بشید آدرس نقشه سایتتون توی فایل درست وارد شده. اگه از افزونه‌هایی مثل Yoast SEO استفاده می‌کنید، آدرسش رو از اونجا پیدا کنید.

 

نکات مهم قبل از اعمال تغییرات

  • فید RSS: اگه از فیدها برای بازاریابی یا انتشار محصولات استفاده می‌کنید، خط Disallow: /feed/ رو حذف کنید.
  • فایل‌های JS و CSS: مطمئن بشید که فایل‌های جاوااسکریپت و استایل‌ها مسدود نشن، چون گوگل برای رندر صفحات بهشون نیاز داره.
  • بک‌آپ: قبل از تغییر، یه نسخه از فایل فعلی‌تون نگه دارید تا اگه چیزی خراب شد، بتونید برگردید.

 

robots.txt حرفه ای
robots.txt حرفه ای

وقتشه سئوتون رو حرفه‌ای کنید!

تنظیم درست robots.txt مثل یه فیلتر قدرتمند برای سایتتون عمل می‌کنه: صفحات مهم رو برجسته می‌کنه و اونایی که مهم نیست رو دور می‌ریزه. با این فایل حرفه‌ای که بالا دیدید، می‌تونید مطمئن بشید که گوگل روی محصولات و دسته‌بندی‌هاتون زوم می‌کنه و از صفحات بی‌ارزش دور نگه داشته می‌شن.

این تنظیمات رو توی سایتتون اعمال کنید، تستش کنید و نتیجه رو توی کامنت‌ها بهم بگید. و آقا ببخشید دیگه ما اینجا دوره نفروختیم با همین یکدونه وبلاگ کارتون راه افتاد :))

یادداشت های یک مهندس نرم افزار که بیشتر از 10 ساله طراحی و توسعه انواع سرویس های آنلاین در بستر وبسایت و وب اپلیکیشن رو بر عهده داره. مسلط به مباحث استراتژی، سئو، امنیت و راه اندازی/پشتیبانی سرویس های زیرساخت میزبانی وب برپایه سیستم عامل لینوکس.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *