بهترین تنظیمات Robots.txt برای فروشگاههای ووکامرسی

میدونید که یه فایل کوچیک به اسم robots.txt میتونه سئوی فروشگاه ووکامرسیتون رو زیر و رو کنه؟ اگه درست تنظیمش کنید، موتورهای جستجو مثل گوگل دقیقاً همون صفحاتی رو میبینن که شما میخواهید و از هدر رفتن وقتشون روی صفحات بیفایده جلوگیری میکنه. اما اگه اشتباه کنید، ممکنه محصولاتتون از نتایج جستجو غیبشون بزنه یا صفحات تکراری سایتتون رو شلوغ کنه.
توی این مقاله، قراره بهترین تنظیمات robots.txt رو برای سایتهای ووکامرسی بهتون آموزش بدم. این تنظیمات برای فروشگاههای حرفهای با فیلترهای پیشرفته، کمپینهای بازاریابی و ترافیک بالا طراحی شده. پس اگه دنبال یه راهنمای کامل و کاربردی هستید، سایت درستی اومدین!
در این یادداشت:
Robots.txt چیه و چرا برای سئو مهمه؟
فایل robots.txt مثل یه تابلوی راهنما برای رباتهای موتورهای جستجو میمونه. بهشون میگه که کدوم صفحات سایت رو باید ببینن (crawl) و کدومها رو نادیده بگیرن. توی یه فروشگاه ووکامرسی، این موضوع خیلی حساستره چون:
- صفحات محصولات و دستهبندیها باید حتماً ایندکس بشن تا مشتریها پیداتون کنن.
- صفحاتی مثل سبد خرید، پرداخت یا فیلترهای پویا نباید ایندکس بشن، چون یا شخصیان یا محتوای تکراری تولید میکنن.
- بودجه خزش (crawl budget) محدوده و باید روی صفحات مهم متمرکز بشه.
تنظیمات اشتباه توی این فایل میتونه باعث بشه گوگل وقتش رو صرف صفحات بیارزش کنه و محصولاتتون رو نادیده بگیره.

بهترین فایل Robots.txt برای ووکامرس
اینجا یه نمونه کامل و حرفهای از فایل robots.txt رو برای یه فروشگاه ووکامرسی میبینید. این تنظیمات برای سایتهایی با افزونههای فیلتر، کمپینهای بازاریابی و حجم بالای محصولات بهینه شده:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-includes/
Disallow: /?s=
Disallow: /cart/
Disallow: /checkout/
Disallow: /my-account/
Disallow: /add-to-cart/
Disallow: /wp-json/
Disallow: /trackback/
Disallow: /xmlrpc.php
Disallow: /feed/
Disallow: /comments/
Disallow: /*add-to-cart=*
Disallow: /*?orderby=*
Disallow: /*?filter_*
Disallow: /*?rating=*
Disallow: /*?utm_*
Disallow: /shop/*?*source_id=*
Disallow: /shop/*?*source_tax=*
Disallow: /shop/*?*query_type_color=*
Disallow: /shop/*?*instock_filter=*
Disallow: /shop/page/*
Disallow: /shop/?*
Allow: /wp-content/uploads/
Allow: /wp-content/plugins/*.css
Allow: /wp-content/plugins/*.js
Disallow: /wp-content/plugins/
Sitemap: https://example.com/sitemap_index.xml
نکته: آدرس https://example.com/sitemap_index.xml رو با آدرس نقشه سایت خودتون جایگزین کنید.
چرا این کد بهترین تنظیمات Robots.txt برای ووکامرس هست؟
بیاید چندتا از بخشهای کلیدی این فایل رو با هم بررسی کنیم تا بفهمیم چرا این نسخه برای ووکامرس حرف نداره:
1. مدیریت هوشمند AJAX
- Disallow: /wp-admin/ و Allow: /wp-admin/admin-ajax.php:
پنل مدیریت رو کامل مسدود کردیم، ولی به فایل admin-ajax.php اجازه دسترسی دادیم. چرا؟ چون ووکامرس برای کارهایی مثل فیلتر محصولات، بارگذاری داینامیک و بهروزرسانی سبد خرید به این فایل وابستهست. اگه اینو مسدود کنید، ممکنه عملکرد سایتتون برای رباتها درست دیده نشه.
2. جلوگیری از محتوای تکراری
- Disallow: /*?orderby=*، /*?filter_*، /*?rating=*:
توی فروشگاههای ووکامرسی، فیلترها (مثل مرتبسازی قیمت یا رنگ) و امتیازدهیها کلی صفحه پویا تولید میکنن که محتوای اصلیشون فرقی با صفحه اصلی محصول نداره. مسدود کردن این پارامترها جلوی ایندکس شدن محتوای تکراری رو میگیره و سئوتون رو تمیز نگه میداره.
3. مسدود کردن صفحات پویا و شخصی
- Disallow: /cart/، /checkout/، /my-account/، /*add-to-cart=*:
این صفحات برای هر کاربر متفاوته و ارزش سئویی ندارن. اگه ایندکس بشن، فقط بودجه خزش رو هدر میدن و ممکنه مشکلات امنیتی به وجود بیارن.
4. حذف پارامترهای بازاریابی
- Disallow: /*?utm_*:
پارامترهای UTM برای ردیابی کمپینهای بازاریابی (مثل گوگل ادز) عالیان، ولی نباید توی نتایج جستجو ظاهر بشن. این خط باعث میشه گوگل فقط صفحه اصلی رو ببینه و نسخههای UTM رو نادیده بگیره.
5. بهینهسازی بودجه خزش
- Disallow: /shop/page/*، /shop/?*:
صفحات صفحهبندی (pagination) فروشگاه رو مسدود کردیم. این کار باعث میشه رباتها روی خود محصولات و دستهبندیها تمرکز کنن، نه روی نسخههای تکراری صفحهبندی.
6. دسترسی به تصاویر
- Allow: /wp-content/uploads/:
تصاویر محصولات برای سئوی تصاویر و جذب ترافیک از گوگل ایمیج خیلی مهمن. این خط مطمئن میشه که رباتها بهشون دسترسی دارن.

مقایسه با تنظیمات سادهتر
شاید بگید: “یه robots.txt سادهتر نمیتونه کارمون رو راه بندازه؟” بیاید یه نمونه سادهتر رو ببینیم:
User-agent: *
Disallow: /wp-admin/
Disallow: /cart/
Disallow: /checkout/
Allow: /wp-content/uploads/
Sitemap: https://example.com/sitemap.xml
این نسخه برای یه سایت کوچیک کافیه، ولی برای فروشگاههای ووکامرسی بزرگ که پر از فیلتر، پارامتر و افزونهست، خیلی ابتداییه. نسخه حرفهای که بالاتر نوشتم:
- پارامترهای پویا رو دقیقتر کنترل میکنه.
- از هدر رفتن بودجه خزش جلوگیری میکنه.
- با افزونههای فیلتر و کمپینهای بازاریابی سازگاره.
چطور این فایل رو پیادهسازی و تست کنیم؟
- اضافه کردن فایل:
- اگه فایل robots.txt توی ریشه سایتتون (مثل example.com/robots.txt) وجود داره، این کدها رو جایگزین کنید.
- اگه نیست، با یه ویرایشگر متن فایل رو بسازید و توی هاستتون آپلود کنید.
- تست با ابزارها:
- از Google Search Console (بخش “Robots.txt Tester”) استفاده کنید تا مطمئن بشید تنظیمات درست کار میکنه.
- با ابزارهایی مثل Screaming Frog چک کنید که صفحات مهم هنوز قابل خزش هستن یا نه.
- بهروزرسانی نقشه سایت:
- مطمئن بشید آدرس نقشه سایتتون توی فایل درست وارد شده. اگه از افزونههایی مثل Yoast SEO استفاده میکنید، آدرسش رو از اونجا پیدا کنید.
نکات مهم قبل از اعمال تغییرات
- فید RSS: اگه از فیدها برای بازاریابی یا انتشار محصولات استفاده میکنید، خط Disallow: /feed/ رو حذف کنید.
- فایلهای JS و CSS: مطمئن بشید که فایلهای جاوااسکریپت و استایلها مسدود نشن، چون گوگل برای رندر صفحات بهشون نیاز داره.
- بکآپ: قبل از تغییر، یه نسخه از فایل فعلیتون نگه دارید تا اگه چیزی خراب شد، بتونید برگردید.

وقتشه سئوتون رو حرفهای کنید!
تنظیم درست robots.txt مثل یه فیلتر قدرتمند برای سایتتون عمل میکنه: صفحات مهم رو برجسته میکنه و اونایی که مهم نیست رو دور میریزه. با این فایل حرفهای که بالا دیدید، میتونید مطمئن بشید که گوگل روی محصولات و دستهبندیهاتون زوم میکنه و از صفحات بیارزش دور نگه داشته میشن.
این تنظیمات رو توی سایتتون اعمال کنید، تستش کنید و نتیجه رو توی کامنتها بهم بگید. و آقا ببخشید دیگه ما اینجا دوره نفروختیم با همین یکدونه وبلاگ کارتون راه افتاد :))