نجوانت

تماس مستقیم

فایل robots.txt چیست؟ + آموزش ساخت فایل robots.txt

فایل robots.txt ، شامل مجموعه ای از دستورالعمل‌ها برای ربات‌ها می‌شود. در اکثر وب سایت ها، این فایل در میان فایل‌های سورس قرار می‌گیرد. فایل‌های robots.txt بیشتر برای مدیریت فعالیت‌های ربات‌های مفید مانند خزنده‌های وب در نظر گرفته شده‌اند، چون ربات‌های بد احتمالاً دستورالعمل‌ها را دنبال نمی‌کنند.

برای کسب اطلاعات بیشتر درباره فایل‌های robots.txt و نحوه ساخت آنها، با ما همراه باشید.

فایل robots.txt چیست؟

می توانید فایل robots.txt را مانند یک علامت «مشخصات رفتاری» در نظر بگیرید که روی دیوار یک باشگاه ورزشی، یک کافه یا یک مرکز اجتماعی نصب شده است: این علامت به خودی خود، قدرتی برای اجرای قوانین ذکر شده ندارد، اما مشتریان «خوب» قوانین را رعایت خواهند کرد. آن هم در حالی که مشتریان «بد» احتمالاً قوانین را زیر پا می‌گذارند و در نتیجه، جریمه و بن می‌شوند.

فایل robots.txt چیست؟ چطور می توان فایل robots.txt ساخت؟

هر بات، یک برنامه کامپیوتری خودکار است که با وب سایت‌ها و برنامه‌های مختلف تعامل دارد. ربات‌های خوب و ربات‌های بد زیادی وجود دارند. یک نوع ربات خوب، بات خزنده وب نامیده می‌شود. این ربات‌ها به صفحات وب «می خزند» و محتوا را فهرست‌بندی می‌کنند تا در نتایج موتورهای جستجو نمایش داده شود. یک فایل robots.txt به مدیریت فعالیت‌های این خزنده‌های وب کمک می‌کند تا به سرور وب میزبان وب‌سایت مالیات اضافه نکنند، یا صفحاتی را که برای نمایش عمومی نیستند را فهرست‌بندی کنند.

 

فایل robots.txt چطور کار می کند؟

فایل robots.txt فقط یک فایل متنی بدون کد نشانه گذاری HTML است (از این رو پسوند txt. دارد). فایل robots.txt مانند هر فایل دیگری در وب سایت، بر روی وب سرور میزبانی می‌شود. در واقع، فایل robots.txt برای هر وب‌سایت معین را معمولاً می‌توان با تایپ URL کامل برای صفحه اصلی و سپس افزودن اسلش robots.txt (مثلاً https://www.najvanet.com/robots.txt) مشاهده کرد. این فایل به جای دیگری در سایت لینک نشده، بنابراین کاربران به احتمال زیاد به آن برخورد نمی‌کنند. اما اکثر ربات‌های خزنده وب، پیش از خزیدن به بقیه سایت ابتدا به دنبال این فایل می‌گردند.

یک فایل robots.txt دستورالعمل‌هایی را برای ربات‌ها ارائه می‌دهد، اما در واقع نمی‌تواند دستورالعمل‌ها را اجرا کند. یک ربات خوب، مانند یک خزنده وب یا یک ربات فید خبری، سعی می‌کند قبل از مشاهده هر صفحه دیگری در یک دامنه، ابتدا از فایل robots.txt بازدید کند و دستورالعمل‌ها را دنبال کند. یک ربات بد، یا فایل robots.txt را نادیده می‌گیرد یا آن را طوری پردازش می‌کند تا صفحات وب ممنوعه را پیدا کند.

یک ربات خزنده وب، از خاص ترین مجموعه دستورالعمل‌ها در فایل robots.txt پیروی می‌کند. اگر دستورات متناقضی در فایل وجود داشته باشد، ربات از دستورات دقیقتر دیگر پیروی خواهد کرد.

نکته مهمی که باید به آن توجه داشت این است که همه زیر دامنه‌ها به فایل robots.txt خودشان نیاز دارند. به عنوان مثال، www.cloudflare.com فایل مخصوص به خود را دارد، اما همه زیر دامنه‌های سایتی مانند Cloudflare (blog.cloudflare.com، community.cloudflare.com و غیره) به فایل خودشان نیاز خواهند داشت.

چه پروتکل هایی در فایل robots.txt استفاده می شوند؟

در شبکه، یک پروتکل قالبی برای ارائه دستورالعمل‌ها یا دستورات مختلف محسوب می شود. فایل‌های Robots.txt از چند پروتکل مختلف استفاده می‌کنند. پروتکل اصلی، Robots Exclusion Protocol نام دارد. به کمک این پروتکل، می‌توانید به ربات‌ها بگویید از کدام صفحات وب و کدام سورس‌ها اجتناب کنند. دستورالعمل‌های فرمت شده برای این پروتکل در فایل robots.txt گنجانده می‌شود.

  الگوریتم رنک برین (RankBrain) چیست؟ پارامترهای الگوریتم رنک برین چه هستند؟

پروتکل دیگری که برای فایل‌های robots.txt استفاده می‌شود، پروتکل Sitemaps است. این پروتکل را می‌توان به عنوان پروتکل گنجاندن ربات‌ها داخل سایت در نظر گرفت. نقشه‌های سایت، به خزنده وب نشان می‌دهند که به کدام صفحات می‌توانند بخزند. به این ترتیب، اطمینان حاصل می‌شود که ربات خزنده هیچ صفحه مهمی را از دست نخواهد داد.

در اینجا فایل robots.txt برای www.cloudflare.com آورده شده است. در ادامه، به معنای تمامی این بخشها خواهیم پرداخت.

نمونه ای از فایل robots.txt

عامل کاربر چیست و “* :User-agent” به چه معناست؟

هر شخص یا برنامه ای که در اینترنت فعال باشد، یک «عامل کاربر» خواهد بود و یا یک نام اختصاص یافته خواهد داشت. برای کاربران انسانی، این عامل شامل اطلاعاتی مانند نوع مرورگر و نسخه سیستم عامل می‌باشد، اما اطلاعات شخصی دربر ندارد. عامل کاربر به وب‌سایت‌ها کمک می‌کند محتوایی را نشان دهند که با سیستم کاربر سازگار باشد. از نظر ربات ها، عامل کاربر (از لحاظ تئوری) به مدیران وب سایت کمک می‌کند تا بدانند چه نوع ربات‌هایی در سایت می‌خزند.

مدیران وب سایت می‌توانند در یک فایل robots.txt، دستورالعمل‌های مختلف برای عوامل کاربر ربات بنویسند. به این ترتیب، قادر خواهند بود تا دستورالعمل‌های خاصی را برای ربات‌های خاص ارائه دهند. مثلاً اگر مدیری بخواهد صفحه خاصی در نتایج جستجوی گوگل نمایش داده شود اما در جستجوهای Bing نباشد، می‌تواند دو مجموعه از دستورات را در فایل robots.txt قید کند:

  • یک مجموعه که با “User-agent: Bingbot” شروع شده باشد؛ و
  • یک مجموعه دیگر که با  “User-agent: Googlebot” شروع می‌شود.

در مثال بالاCloudflare ، دستور “User-agent: *” را در فایل robots.txt قرار داده است. سمبل ستاره، یک عامل کاربر «وایلد کارت» را نشان می‌دهد، و به این معناست که دستورالعمل ها، مختص ربات خاصی نیستند و برای همه ربات‌ها اعمال پذیر خواهند بود.

نام‌های متداول عامل کاربر ربات موتورهای جستجو عبارتند از:

گوگل:

  • Googlebot
  • Googlebot-Image (برای تصاویر)
  • Googlebot-News (برای اخبار)
  • Googlebot-Video (برای ویدیو)

Bing

  • Bingbot
  • MSNBot-Media (برای تصاویر و ویدیو)

Baidu

  • Baiduspider

 

دستورات Disallow چطور در فایل robots.txt کار می‌کنند؟

دستور Disallow، رایج ترین دستور در پروتکل حذف ربات‌ها محسوب می‌شود. این دستور به ربات‌ها می‌گوید که به صفحه وب یا مجموعه‌ای از صفحات وب که پس از دستور درج می‌شوند، دسترسی نداشته باشند. صفحات غیرمجاز لزوماً پنهان نیستند؛ فقط برای کاربران عادی گوگل یا Bing مفید نیستند و در نتیجه به آنها نشان داده نمی‌شوند. در بیشتر مواقع، کاربر در وب سایت اگر بداند این صفحات را کجا پیدا کند، همچنان می‌تواند به طور مستقیم به سراغ این صفحات برود.

دستور Disallow را می‌توان به روش‌های مختلفی استفاده کرد که چندین مورد از آنها در مثال نمایش داده خواهد شد.

بلاک یک فایل (به عبارت دیگر، یک صفحه وب خاص)

به عنوان مثال، اگر سایت ما بخواهد دسترسی ربات‌های خزنده به مقاله راهنمای دریافت درگاه پرداخت اینترنتی در 3 گام را ببندد، دستور به صورت زیر نوشته خواهد شد:

Disallow: /learning/bots/acquiring-internet-payment-services/

پس از دستور “disallow”، بخشی از URL صفحه وب که پس از صفحه اصلی قرار می‌گیرد – که در این مورد، “www.najvanet.com” باشد – قرار داده می‌شود. با وجود این دستور، ربات‌های خوب به این مقاله دسترسی نخواهند داشت و صفحه در نتایج موتورهای جستجو نشان داده نمی‌شود.

بلاک یک دایرکتوری

گاهی اوقات بهتر است به جای اینکه لیستی از فایل‌ها را یکی یکی بلاک کنیم، همه آنها را همزمان بلاک نماییم. اگر همه آنها در یک بخش از وب سایت باشند، فایل robots.txt می‌تواند دایرکتوری حاوی آنها را مسدود کند.

  آموزش گام به گام ایجاد سایت مپ با افزونه Yoast SEO

مثلاً با چنین دستوری:

Disallow: /__mesa/

این بدان معناست که تمام صفحات موجود در فهرست __mesa از دسترسی ربات‌ها به دور خواهند بود.

اجازه دسترسی کامل

چنین دستوری به صورت زیر خواهد بود:

Disallow:

این دستور به ربات‌ها می‌گوید که می‌توانند کل وب سایت را مرور کنند، چون هیچ چیزی غیرمجاز نیست.

مخفی سازی کل وبسایت با دستور Disallow

Disallow: /

سمبل اسلش «/» در اینجا نشان دهنده ریشه در سلسله مراتب یک وب سایت، یا صفحه ای است که همه صفحات دیگر از آن منشعب می‌شوند. بنابراین شامل صفحه اصلی و تمام صفحات پیوند شده از آن هم می‌شود. با این دستور، ربات‌های موتورهای جستجو به هیچ وجه نمی‌توانند به وب سایت بخزند.

به عبارت دیگر، یک اسلش می‌تواند کل یک وب سایت را از بخش‌های قابل جستجو در اینترنت حذف کند!

چه دستورات دیگری به پروتکل حذف ربات‌ها مربوط می شوند؟

Allow: همانطور که انتظار می‌رود، دستور Allow به ربات‌ها می‌گوید که مجاز به دسترسی به یک صفحه وب یا فهرست خاص هستند. این دستور به ربات‌ها اجازه دسترسی به یک صفحه وب خاص را می‌دهد، اما باقی صفحات وب موجود در فایل را غیرمجاز می‌کند. همه موتورهای جستجو، این دستور را نمی‌شناسند.

Crawl-Delay: فرمان تاخیر در خزیدن، برای این است که ربات‌های عنکبوتی موتورهای جستجو را از فشار آوردن بیش از حد بر سرور بازدارد. این کار به ادمین‌های وبسایت اجازه می‌دهد تا مدت زمانی را که ربات باید بین هر درخواست منتظر بماند، بر اساس میلی ثانیه تعیین کنند. مثلاً این دستور Crawl-Delay برای انتظار 8 میلی ثانیه ای است:

Crawl-delay: 8

گوگل این فرمان را نمی‌شناسد، اگرچه موتورهای جستجوی دیگر آن را تشخیص می‌دهند. در گوگل، مدیران می‌توانند در کنسول جستجوی گوگل، فرکانس خزیدن برای وب‌سایت خود را تغییر دهند.

 

پروتکل Sitemaps چیست و چرا در robots.txt به کار می رود؟

پروتکل sitemaps به ربات‌ها کمک می‌کند تا بدانند هنگام خزیدن در وبسایت، باید کدام بخش‌ها را دربر بگیرند.

سایت مپ، یک فایل XML است که چنین ظاهری دارد:

پروتکل sitemap - راهنمای ساخت robots.txt

این فایل، یک لیست از تمام صفحات یک وب سایت است که برای ماشین‌ها قابل خواندن می‌باشد. از طریق پروتکل Sitemaps، لینکهای نقشه سایت را می‌توان در فایل robots.txt قرار داد.

فرمت این گونه خواهد بود: “Sitemaps:” و سپس آدرس وب فایل XML قرار می‌گیرد. می‌توانید چندین نمونه را در فایل Cloudflare robots.txt مشاهده کنید.

پروتکل نقشه سایت کمک می‌کند تا اطمینان حاصل شود که ربات‌های عنکبوتی وب در هنگام خزیدن یک وب سایت چیزی را از دست نمی‌دهند، ربات‌ها همچنان روند خزیدن معمول خود را دنبال می‌کنند. Sitemapها، ربات‌های خزنده را مجبور نمی‌کنند تا صفحات وب را متفاوت اولویت‌بندی کنند.

 

robots.txt چه ارتباطی با مدیریت ربات دارد؟

 

مدیریت ربات‌ها برای راه‌اندازی یک وب‌سایت یا برنامه ضروری خواهد بود، چون حتی فعالیت مفید ربات‌ها نیز می‌تواند بر سرور مبدأ بیش از حد فشار وارد کند. همین فشار می‌تواند باعث شود یک یا چند مورد از امکانات وب، کُند شده یا از بین بروند. یک فایل robots.txt که به خوبی ساخته شده باشد، سئوی یک وب سایت را به سطحی بهینه می‌رساند و فعالیت ربات مفید را تحت کنترل نگه خواهد داشت.

  روش های رفع خطا minimize main thread work

با این حال، یک فایل robots.txt کار زیادی برای مدیریت ترافیک ربات‌های مخرب انجام نمی‌دهد. یک راه حل مدیریتی ربات ها، می‌تواند به مهار فعالیت‌های مخرب ربات کمک کند و در عین حال، تأثیری روی ربات‌های ضروری مانند خزنده‌های وب نگذارد.

 

ایستر اگ‌های Robots.txt

گاهی اوقات یک فایل robots.txt حاوی پیام‌های طنزی میباشد که توسعه‌دهندگان آنها را داخل ربات گنجانده‌اند، چون می‌دانند این فایل‌ها به ندرت توسط کاربران دیده می‌شوند. به این پیام ها، ایستر اِگ (Easter Egg) می‌گویند.

مثلاً داخل فایل robots.txt یوتیوب نوشته شده: «این فایل در آینده‌ای دور (سال 2000) و پس از قیام روباتیک در اواسط دهه 90 ساخته شده. ربات‌ها همه انسان‌ها را نابود کرده اند.».

و فایل robots.txt سایت Cloudflare چنین چیزی را در خود دارد!

 

چگونه فایل Robots.txt بسازیم؟

1. ابتدا  یک فایل Robots.txt ایجاد کنید.

شما باید به ریشه دامنه خود دسترسی داشته باشید. ارائه دهنده هاست وب، می‌تواند به شما کمک کند تا بدانید آیا دسترسی مناسب را دارید یا خیر.

مهمترین جنبه‌های فایل، نحوه ایجاد و مکان آن خواهد بود. می‌توانید از هر ویرایشگر متنی برای ایجاد یک فایل robots.txt استفاده کنید. محل ربات، در یکی از لوکیشن‌های زیر خواهد بود:

ریشه دامین سایت شما: www.yourdomain.com/robots.txt.

زیر دامنه‌های سایت شما: page.yourdomain.com/robots.txt.

پورت‌های غیر استاندارد: www.yourdomain.com:881/robots.txt.

در نهایت، باید مطمئن شوید که فایل robots.txt شما، یک فایل متنی با کدگذاری UTF-8 باشد. ممکن است گوگل و سایر موتورهای جستجو و خزنده‌های رایج، کاراکترهای خارج از محدوده UTF-8 را نادیده بگیرند. اگر چنین اتفاقی بیفتد، احتمالاً قوانین robots.txt شما نامعتبر خواهند شد.

نکته: فایل‌های Robots.txt نباید در زیر شاخه دامین سایت شما (www.yourdomain.com/page/robots.txt) قرار بگیرند.

2. Robots.txt User-agent را تنظیم کنید.

گام بعدی در ایجاد فایل‌های robots.txt، تنظیم user-agent خواهد بود. عامل کاربر، مربوط به خزنده‌های وب یا موتورهای جستجویی است که می‌خواهید به آن اجازه دسترسی بدهید یا آن را مسدود کنید. چندین نهاد می‌توانند عامل کاربر شما باشند. در ادامه، چند خزنده و همچنین ارتباط آنها را فهرست کرده ایم.

user-agent برترین موتورهای جستجو در robots.txt آنها

سه راه مختلف برای ایجاد user-agent در فایل robots.txt وجود دارد:

ایجاد یک عامل کاربر

قاعده ای که بایستی برای تنظیم عامل کاربر استفاده می‌کنید، به صورت User-agent: NameOfBot است. در مثال زیر، DuckDuckBot تنها عامل کاربر معین می‌باشد.

User-agent: DuckDuckBot

ایجاد بیش از یک عامل کاربر

اگر بخواهید بیش از یک مورد اضافه کنید، همان فرآیندی را که برای DuckDuckBot user-agent در خط دیگر انجام دادید، دنبال کنید و نام عامل کاربر اضافی را وارد کنید. در این مثال از Facebot استفاده کرده ایم.

User-agent: DuckDuckBot

User-agent: Facebot

تنظیم همه خزنده‌ها به عنوان عامل کاربر

برای مسدود کردن همه ربات‌ها یا خزنده ها، نام ربات را با یک ستاره (*) جایگزین کنید.

User-agent: *

3. قوانین را برای فایل robots.txt خود تنظیم کنید.

یک فایل robots.txt به صورت گروهی خوانده می‌شود. یک گروه مشخص می‌کند که عامل کاربر کیست، و یک قانون یا دستورالعمل برای نشان دادن فایل‌ها یا دایرکتوری‌هایی دارد که تعیین می‌کند آیا عامل کاربر می‌تواند به آنها دسترسی داشته باشد یا خیر.

دستورالعمل‌هایی که می‌توانید استفاده کنید، شامل موارد زیر می‌شوند:

  • Disallow: دستوری که به صفحه یا دایرکتوری مربوط به دامنه اصلی شما اشاره می‌کند و مشخص می‌کند شما نمی‌خواهید user-agent نامگذاری شده، به آن بخزد. این دستور با یک اسلش رو به جلو (/) و سپس آدرس کامل صفحه شروع می‌شود و با اسلش رو به جلو پایان می‌یابد. این تنها در صورتی است که به یک دایرکتوری اشاره داشته باشد، و نه یک صفحه کامل. برای هر قانون می‌توانید از یک یا چند تنظیماتdisallow  استفاده کنید.
  • Allow: این دستورالعمل به صفحه یا دایرکتوری مربوط به دامنه ریشه سایت شما اشاره می‌کند که می‌خواهید user-agent نامگذاری شده، به آن بخزد. مثلاً می‌توانید از دستورالعمل Allow برای لغو قانون Disallow استفاده کنید. این دستور نیز با یک اسلش رو به جلو (/) و سپس آدرس کامل صفحه شروع می‌شود. شما آن را با اسلش رو به جلو پایان می‌دهید تنها در صورتی که به یک دایرکتوری اشاره داشته باشد نه یک صفحه کامل. می‌توانید از یک یا چند تنظیمات مجاز برای هر قانون استفاده کنید.
  • Sitemap: دستورالعمل نقشه سایت، اختیاری است و مکان نقشه مربوط به وب سایت را ارائه می‌دهد. تنها شرط این است که باید یک URL کاملا واجد شرایط باشد. بسته به ملزومات، می‌توانید از مقدار صفر یا بیشتر استفاده کنید.
  6 روش رفع خطای properly size images

خزنده‌های وب، گروه‌ها را از بالا تا پایین پردازش می‌کنند. همانطور که قبلا ذکر شد، آنها به هر صفحه یا دایرکتوری که صراحتاً دستور Disallow نداشته باشد، دسترسی دارند. بنابراین، می‌توانید Disallow: / را در زیر اطلاعات user-agent هر گروه اضافه کنید تا مانع از خزیدن آن عوامل کاربری خاص در وب سایت شما شود.

# Example: block DuckDuckBot

User-agent: DuckDuckBot

Disallow: /

#Example: block more than one user-agent

User-agent: DuckDuckBot

User-agent: Facebot

Disallow: /

#Example: block all crawlers

User-agent: *

Disallow: /

برای بلاک کردن یک زیر دامنه خاص از همه خزنده ها، یک اسلش رو به جلو و URL کامل زیر دامنه را در قانون Disallow اضافه کنید.

User-agent: *

Disallow: /https://page.yourdomain.com/robots.txt

اگر می‌خواهید یک دایرکتوری را مسدود کنید، همین روند را با اضافه کردن یک اسلش به جلو و نام دایرکتوری دنبال کنید. اما با یک اسلش دیگر به جلو، دستور را پایان دهید.

User-agent: *

Disallow: /images/

در نهایت، اگر می‌خواهید همه موتورهای جستجو، اطلاعات را از تمام صفحات سایت شما جمع‌آوری کنند، می‌توانید یک قانون Allow یا Disallow ایجاد کنید. حتماً هنگام استفاده از قانون مجاز، یک اسلش رو به جلو اضافه کنید. نمونه‌هایی از هر دو قانون در زیر نشان داده شده است.

# Allow example to allow all crawlers

User-agent: *

Allow: /

# Disallow example to allow all crawlers

User-agent:

*Disallow:

4. فایل Robots.txt را آپلود کنید.

وب‌سایت‌ها به‌طور خودکار فایل robots.txt ندارند چون اصلاً نیازی به آن نیست. هنگامی که تصمیم به ایجاد آن گرفتید، فایل را در فهرست اصلی وب سایت آپلود کنید. آپلود به ساختار فایل سایت، و محیط میزبانی وب شما بستگی دارد. برای دریافت راهنمایی در مورد نحوه آپلود فایل robots.txt، با ارائه دهنده هاست خود تماس بگیرید.

 

5. صحت عملکرد فایل robots.txt را بررسی کنید.

راه‌های مختلفی برای تست و اطمینان از عملکرد صحیح فایل robots.txt وجود دارد. شما می‌توانید با استفاده از ابزارهایی مانند ابزارهای زیر، وجود هرگونه خطا در دستورهای قواعدی یا منطقی را بسنجید.

  • تستر robots.txt گوگل در کنسول جستجو؛
  • ولیدیتور و ابزار تست robots.txt از Merkle Inc.؛
  • و ابزار تست robots.txt در Ryte.

 

نحوه استفاده از robots.txt در وردپرس

اگر از افزونه وردپرس Yoast SEO استفاده می‌کنید، در پنجره ادمین بخشی را برای ایجاد یک فایل robots.txt خواهید دید.

  بهترین ابزارهای رایگان تست سرعت سایت در سال 2023 کدامند؟

وارد بک‌اند وب‌سایت وردپرس خود شوید و به قسمت Tools در بخش SEO دسترسی پیدا کنید. سپس روی ویرایشگر فایل کلیک کنید.

استفاده از robots.txt در وردپرس

برای تعیین عوامل و قوانین کاربری، همان ترتیب قبلی را دنبال کنید. در زیر، ما خزنده‌های وب را از دایرکتوری‌های wp-admin و wp-includes وردپرس مسدود کرده‌ایم اما همچنان به کاربران و ربات‌ها اجازه می‌دهیم صفحات دیگر سایت را ببینند. پس از اتمام، روی ذخیره تغییرات در robots.txt کلیک کنید تا فایل robots.txt فعال شود.

سخن آخر

ما نحوه ایجاد یک فایل robots.txt را بررسی کردیم. مراحل انجام این کار، ساده است و می‌تواند باعث صرفه جویی در وقت شود و دردسر ناشی از خزیدن بی اجازه ربات در محتوای سایت را از بین ببرد. برای جلوگیری از خزیدن‌های  غیرضروری موتورهای جستجو و ربات ها، می‌توانید به راحتی یک فایل robots.txt ایجاد کنید.

اگر هر گونه سوالی در ارتباط با robots.txt و کارکردهای آن دارید، می‌توانید در بخش نظرات سوالات خود را با ما در میان بگذارید.

 

سوالات متداول

robots.txt چیست؟

robots.txt فایلی است که توسط وب سایت‌ها، برای ارائه دستورالعمل‌هایی به خزنده‌های وب ارائه می‌شود. این فایل‌ها، به خزنده‌ها اطلاع می‌دهد که در کدام قسمت‌های وب سایت، مجاز به خزیدن و فهرست بندی خواهند بود. فایل robots.txt حاوی قوانینی است که خزنده‌ها می‌توانند برای تعیین اینکه آیا یک صفحه در وب سایت باید خزیده شده و در فهرست‌های جستجو گنجانده شود یا خیر، استفاده کنند.

robots.txt چگونه بر سئو تاثیر می‌گذارد؟

محتویات robots.txt می‌تواند با تأثیرگذاری بر روی اینکه کدام صفحات وب سایت توسط موتورهای جستجو خزیده می‌شود، بر سئو تأثیر بگذارد. اگر robots.txt حاوی دستورالعمل‌هایی برای خزیدن برخی صفحات خاص باشد، موتورهای جستجو آن صفحات را فهرست نمی‌کنند. این امر می‌تواند مشاهده شدن برخی صفحات حین جستجوی افراد برای کلمات کلیدی مرتبط را دشوارتر کند. با این حال، اگر صفحه حاوی محتوای مهمی باشد که بایستی ایندکس شود، دادن اجازه خزیدن در آن می‌تواند مفید باشد.

آیا می‌توان از robots.txt برای مسدود کردن موتورهای جستجو استفاده کرد؟

بله، از robots.txt می‌توان برای مسدود کردن موتورهای جستجو استفاده کرد. این کار با درج دستورالعملی برای ممنوعیت خزیدن یا فهرست نشدن صفحه موردنظر در وب سایت انجام می‌شود. اگر وب سایت حاوی اطلاعات حساس یا محرمانه ای باشد که نباید خزیده شوند، یا اگر وب سایت نمی‌خواهد موتورهای جستجو صفحات خاصی را فهرست کنند، دستورهای مسدودکننده می‌توانند مفید باشند.

اگر ربات‌ها robots.txt را نادیده بگیرند چه اتفاقی می‌افتد؟

اگر یک ربات robots.txt را نادیده بگیرد و صفحاتی را در وب سایتی که قرار نیست خزیده شوند بخزد، امکان دارد توسط موتورهای جستجو، بابت نقض دستورالعمل‌های مدیران وب سایت، جریمه و بن شود. نادیده گرفتن دستورات، منجر به کاهش رتبه جستجو و ترافیک کمتر به وب سایت خواهد شد.

چگونه یک فایل robots.txt ایجاد کنیم؟

می توانید با استفاده از یک ویرایشگر متن مانند Notepad، Sublime Text یا هر ویرایشگر متن دیگری یک فایل robots.txt ایجاد کنید. فایل باید در فهرست اصلی وب سایت با پسوند txt ذخیره شود و حاوی دستورالعمل‌هایی باشد که توضیح دهد کدام صفحات باید خزیده شوند و کدام‌ها نه. فایل را می‌توان با ارسال آن به ابزار تست موتور جستجو تست کرد تا از درستی کارکرد آن اطمینان حاصل شود.

مطالب مرتبط

6 دلیل پایین بودن نرخ تبدیل (CRO)

با وجود افزایش ترافیک در وب‌سایت، اگر هنوز هیچ تبدیلی مشاهده نمی‌کنید، این می‌تواند نشان‌دهنده مشکلاتی در بهینه‌سازی نرخ تبدیل […]

10 دقیقه مطالعه مشاهده
نحوه رفع ارور Serve Images in Next-Gen Formats

نحوه رفع ارور Serve Images in Next-Gen Formats

هنگامی که وب سایت خود را در Google PageSpeed ​​Insights یا دیگر ابزار‌های تست سرعت اجرا می کنید، ممکن است […]

7 دقیقه مطالعه مشاهده
آموزش رفع ارور Use passive listeners to improve scrolling performance

آموزش رفع ارور Use passive listeners to improve scrolling performance

اگر به تازگی به دنیای توسعه وب پا گذاشته‌اید، احتمالاً با خطاها و هشدارهای زیادی در مرورگرهای خود روبرو شده‌اید. […]

5 دقیقه مطالعه مشاهده
اشتراک در
اطلاع از
guest
0 نظرات
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها