قیمت سال 1402 + 10% تخفیف - فقط تا 13 فروردین - کوپن: hd10

فایل robots.txt چیست و چگونه می‌توانم متن آن را تغییر دهم؟

برای این که سایت شما بیشتر دیده شود و افراد زیادی وارد آن شوند راه‌های مختلفی وجود دارد. یکی از این راه‌ها سئو است. سئو در اصل باعث می‌شود که سایت شما در صفحات اول موتورهای جستجو مثل گوگل نمایش داده شود. بنابراین وقتی افراد مختلف عبارتی را سرچ می‌کنند، احتمال این که وارد سایت شما شوند بیشتر می‌شود. گوگل ربات‌های بسیار زیادی در سطح وب دارد که کارشان بررسی سایت‌های مختلف است. این ربات‌ها بی‌وقفه و شبانه روزی سایت‌های مختلف را چک می‌کنند و براساس کیفیت آن‌ها رتبه خاصی به صفحات سایت می‌دهند.

ربات‌های گوگل به صورت پیش‌فرض تمام صفحات سایت‌ها که به آن دسترسی داشته باشند را بررسی خواهند کرد. بعضی از صفحات سایت لازم است که حتما در گوگل قرار بگیرند و نمایش داده شوند. مثلا صفحه محصولات و مقالات از این دست صفحات هستند که حتما باید در موتور جستجوی گوگل حضور داشته باشند. در نتیجه ربات‌های گوگل حتما باید به این صفحات دسترسی داشته باشند. بعضی از صفحات سایت هم هستند که لزومی ندارد در گوگل ایندکس شده و نمایش داده شوند. مثلا صفحه عضویت یا ورود به سایت و صفحات بخش ادمین سایت جزو این دسته هستند.

یکی از مواردی که در سئو باید رعایت کنید این است که ربات‌های گوگل صفحات غیرضروری شما را در نتایج جستجو وارد نکنند. حالا چرا باید این کار انجام شود؟ دلیلش این است که این صفحات از نظر گوگل سئوی مناسبی ندارند. به عنوان نمونه صفحه محصول شما محتوای خوبی دارد و روی سئو آن کار کرده‌اید. پس باید ربات‌های گوگل به آن دسترسی داشته باشند. از طرف دیگر صفحه ادمین شما ارزش زیادی برای بازدیدکنندگان ندارد و هیچ سایتی هم به سئو صفحه ادمین اهمیتی نمی‌دهد. به همین دلیل باید به ربات‌های گوگل بگوییم که این صفحه را اصلا در نتایج جستجو وارد نکنند.

شما می‌توانید به ربات‌های گوگل بگویید که کدام صفحات سایت‌تان را بررسی کنند و کدامیک را بررسی نکنند و در نتایج گوگل نمایش ندهند. این کار از طریق یک فایل متنی به اسم robots.txt انجام می‌شود. شما در این فایل می‌توانید یکسری فرمان‌ها برای ربات‌های گوگل آماده کنید. ربات‌های گوگل هم حتما به این فرمان‌ها توجه می‌کنند. هر بار که ربات‌های گوگل و سایر موتورهای جستجو وارد سایت شما می‌شوند، اول از همه فایل robots.txt را بررسی می‌کنند. این فایل به ربات‌ها می‌گوید که به کدام قسمت از سایت مجوز دسترسی دارند. ربات‌ها هم دقیقا برمبنای همین فایل، سایت شما را بررسی می‌کنند.

تنظیم دقیق و درست فایل robots.txt یکی از کارهای اولیه در سئو سایت است و اهمیت زیادی دارد. در این فایل باید مشخص کنید که ربات‌های گوگل و بقیه موتورهای جستجو به کدام بخش از سایت دسترسی داشته باشند و به کدام قسمت‌ها دسترسی ندارند. در ویدیو زیر به صورت کامل آموزش دادیم که چطور فایل robots.txt را تنظیم کرده و بعضی از صفحات سایت را از دسترس ربات‌ها خارج کنید.

مرحله اول: مشاهده فایل robots.txt

قدم اول این است که ابتدا فایل robots.txt سایت‌تان را ببینید. در این فایل نوشته شده است که ربات‌های گوگل به کدام قسمت‌های سایت می‌توانند دسترسی داشته باشند. برای دسترسی به فایل robots.txt اول از همه عبارت robots.txt google search console را در گوگل جستجو کنید.

معمولا دومین گزینه در لیست نتایج گوگل مربوط به گوگل سرچ کنسول است که باید روی آن کلیک کنید.

وقتی که روی لینک سرچ کنسول کلیک کردید، با صفحه زیر مواجه می‌شوید. روی گزینه Please select a property کلیک کنید. در ادامه لیستی از سایت‌های شما نمایش داده می‌شود. روی سایت موردنظر کلیک کرده تا فایل robots.txt آن را ببینید.

مرحله دوم: تغییر فایل robots.txt

در ادامه صفحه‌ای مثل عکس زیر برای شما باز می‌شود. این صفحه محتوای فایل robots.txt سایت شما را نمایش می‌دهد. داخل کادر وسط صفحه یکسری عبارت نوشته شده‌اند که در مورد آن‌ها به شما توضیح می‌دهیم. در خط دوم محتوای فایل robots.txt عبارت / :Allows نوشته شده است. این عبارت یعنی ربات‌های سطح اینترنت می‌توانند به همه صفحات سایت شما دسترسی داشته باشند. حالا در خط‌های بعدی عباراتی نوشته شده است که ابتدای آن‌ها Disallow قرار دارد. جلوی Disallow آدرس صفحاتی را می‌نویسیم که ربات‌های اینترنتی قرار نیست به آن‌ها دسترسی داشته باشند.

مثلا در خط سوم فایل، عبارت Disallow: /admin نوشته شده است. یعنی این که ربات‌ها به تمام صفحات سایت شما به جز صفحه ادمین آن دسترسی دارند. همچنین موارد دیگری که ربات‌ها قرار نیست بررسی کنند هم در ادامه این فایل آمده است. شما می‌توانید صفحات مختلفی را به این لیست اضافه یا از آن حذف کنید. در خط آخر هم آدرس سایت مپ وب‌سایت شما درج شده است.

مرحله سوم: دانلود فایل robots.txt

بعد از این که تغییرات موردنظرتان را در فایل robots.txt اعمال کردید، باید این تغییرات را ذخیره کنید. در پایین سمت راست صفحه روی دکمه Submit کلیک کنید.

بعد از کلیک روی این دکمه، پنجره‌ای برای شما باز می‌شود. در این پنجره سه مرحله وجود دارد که باید آن‌ها را انجام دهید. قدم اول این است که فایل robots.txt را دانلود کنید. برای این کار کافیست روی دکمه آبی رنگ Download کلیک کنید. بلافاصله فایلی با اسم robots.txt در سیستم شما دانلود می‌شود.

مرحله چهارم: وارد کردن فایل robots.txt در سایت

بعد از این که فایل robots.txt دانلود شد، آن را باز کنید. در ادامه وارد پنل مدیریت سایت‌تان شوید. از منوی سمت راست پنل روی گزینه «تنظیمات وب‌سایت» کلیک کنید. با این کار چند گزینه دیگر برای شما ظاهر می‌شود. از بین این گزینه‌ها روی گزینه «تنظیمات سئو» کلیک کرده تا وارد بخش مربوطه شوید.

در ادامه، صفحه تنظیمات سئو برای شما باز می‌شود. به سمت پایین صفحه اسکرول کنید تا به قسمت «اطلاعات» برسید. در انتهای خط اول این بخش مثل عکس زیر روی عبارت «اینجا را کلیک کنید» کلیک کرده تا صفحه جدیدی برای شما باز شود.

در ادامه صفحه‌ای مثل عکس زیر برای شما باز می‌شود. ابتدا تمام محتویات داخل کادر را پاک کنید. بعد تمام محتوایات فایلی که از سرچ کنسول دانلود کردید را کپی کرده و داخل کادر این صفحه وارد کنید. در نهایت روی دکمه ذخیره فایل کلیک کنید تا فایل robots.txt سایت شما ایجاد شود.

مرحله پنجم: ثبت در گوگل سرچ کنسول

بعد از این که محتوای فایل robots.txt را در سایت‌تان وارد کردید، دوباره به صفحه سرچ کنسول برگردید. در این مرحله فقط کافیست که روی دکمه Submit کلیک کنید. بعد از این کار فایل robots.txt شما به درستی ایجاد شده و در سایت شما قرار دارد. حالا ربات‌های مختلف براساس این فایل، سایت شما را بررسی می‌کنند. یعنی صفحاتی که در این فایل Disallow شده‌اند، توسط ربات‌ها بررسی نخواهند شد.

02191003383 داخلی 2