در این مطلب از سئو روز براتون یه آموزش عالی برای آشنایی با این اسکریپت ساده رو آوردم.
و سعی کردم تا با یه راهنمایی قدم به قدم، بهتون کمک کنم تا بتونین یسری کلمه کلیدی رو که به محتواتون نزدیکن و میتونین باهاشون رتبه بندی کنین رو پیدا کنین.
بهتره بدونین که حداقل در ابتدای کارتون، استفاده از پایتون برای خودکار سازی فرایند های سئوی خودتون میتونه یکم سخت و ترسناک بنظر برسه.
در این ستونی که در ادامه براتون آوردم، یه اسکریپت با کاربرد ساده تر رو میبینین که شما میتونین از اون برای وبسایتتون کمک بگیرین.
ولی یادتون باشه که طبق دستورالعمل هایی که در ادامه براتون آوردم باید عمل کنین.
و اگه شما تونستین یه وبسایت رو crawl کنین و یه لیست از کلمه های کلیدی مورد نظرتون بدست بیارین، اون وقته که میتونین از این روش استفاده کنین.
و بهتره بدونین که استفاده از همین روش و یاد گرفتن اون میتونه کمک های زیادی رو به کسب و کارتون برسونه.
و اگه دوست دارین در این زمینه بهتر و بیشتر یاد بگیرین، بهتره کد ها و توضیحاتی رو که در این زمینه براتون آوردیم دنبال کنین و بیشتر با این اسکریپت آشنا بشین.
اسکریپت سئو پایتون میتونه با حذف کردن یسری کار هایی که قبلا دستی انجام میشدن، در زمانتون صرفه جویی کنه.
و همین موضوع باعث میشه شما بتونین یه کسب و کار بهتر داشته باشین.
و حتی این روش میتونه بررسی کنه که آیا فرصت هایی که شما اونا رو در نظر دارین براتون مفید هستن یا نه.
و همچنین با این روش میتونه از تجزیه و تحلیل داده های اولیتون هم مراقبت کنه.
و این موضوع برای هر کسی که یه وبسایت و یا شرکت سئو متوسط و یا بزرگ داره مفیده.
در ادامه یه نمونه از اون چیزی که میخوایم امروز بهتون یاد بدم رو آوردم:
این کلمه های کلیدی رو میتونین در عنوان صفحه و H1 ببینین اما اونا در نسخه کپی وجود ندارن.
و اضافه کردن این کلمه های کلیدی به طور ساده به نسخه ای که الان دارین، یه راه ساده برای افزایش ارتباطتون با کلمه های کلیدی مورد نظرتون محسوب میشه.
و در ادامه با گرفتن یسری راهنمایی ها از موتور های جست و جو به یسری کلمه کلیدی میرسیم که خیلی در نظر گرفته نشدن.
ولی وبسایت ها از قبل برای اون رتبه بندی هایی رو انجام دادن.
با این کار میتونین اعتماد موتور های جست و جو رو برای رتبه بندی اون کلمات کلیدی در SERP ها افزایش بدین.
همچنین شما میتونین این گزارش ها رو به صورت دستی هم درست کنین ولی بهتره بدونین که این کار خیلی میتونه براتون زمان بر باشه.
و دقیقا برای همینه که من میخوام با استفاده از یه اسکریپت سئو پایتون زمان این کار رو کاهش بدم و در زمانتون صرفه جویی کنم.
یه پیش نمایش خروجی
یه نمونه از ظاهر خروجی نهایی بعد از اجرای گزارش رو براتون آوردم تا شما بتونین با یه تصویر کلی از اون آشنا بشین:
خروجی نهاییتون پنج فرصت برتر رو بر اساس حجم جست و جو های اونا در بر میگیره.
و هر کدوم از اونا رو به صورت افقی و همراه با یه حجم جست و جوی تخمینی براتون نمایش میده.
و همینطور میتونه بهتون حجم کل جست و جوی همه کلمات کلیدی یه صفحه بخصوص در یه فاصله قابل توجه، و کل کلمات کلیدی در دسترس رو نشون بده.
بعد از همه اینا پنج کلمه کلیدی برتر بر اساس حجم جست و جوی خودشون بررسی میشن تا ببینیم آیا اونا در عنوان، H1 و یا کپی صفحه ی مورد نظرتون پیدا میشن یا نه.
و بعد از همه اینا شما میتونین علامت گذاری درست و یا نادرست رو در کنارشون ببینین.
این کارتون میتونه برای پیدا کردن یسری مسیر موفقیت سریعتون خیلی مفید باشه.
فقط باید کلمات کلیدی که استفاده نشدن رو به طور طبیعی به کپی صفحتون، عنوانتون و یا H1 اضافه کنین.
تنظیم و شروع کارتون نسبتا یه موضوع ساده محسوب میشه.
فقط به یه crawl در وبسایتتون و یه فایل صادر شده از همه کلمه های کلیدی که یه وبسایت برای اونا رتبه بندی میکنه نیاز دارین.
و این مطلب میتونه بهتون از طریق راه اندازی کد ها کمک های زیادی برسونه.
و بدون کد نویسی میتونین به برگه Google Colaboratory پیوند بدین و ازش استفاده کنین.
مواردی که بهشون نیاز دارین رو در ادامه براتون آوردیم:
- یه crawl از وبسایت مورد نظرتون
- صادر کردن همه کلمات کلیدی ای که یه وبسایت برای اونا رتبه بندی میکنه.
- یه صفحه Google Colab که برای ترکیب داده های crawl و کلمات کلیدی بهش احتیاج دارین.
این موضوع رو یه گزارش فاصله ی قابل توجه نامگذاری کردیم چرا که کلمات کلیدی رو که به راحتی در یه فاصله قابل توجه از همدیگر قرار دارن رو علامت گذاری میکنه.
این فاصله قابل توجه رو به عنوان کلمات کلیدی ای که در جایگاه های 4 تا 20 قرار دارن تعریف کردیم.
اما اگه شما بخواین این موضوع رو خودتون تنظیم کنین، ما اون رو براتون به عنوان یه گزینه قابل تنظیم تبدیل کردیم تا شما بتونین ازش استفاده کنین.
گزارش سئو از فاصله قابل توجه
- crawl وبسایت مورد نظرتون
- یه استخراج کننده سفارشی رو برای کپی صفحه وبسایتتون تنظیم کنین. (این مورد اختیاریه ولی بهتون توصیه میشه اون رو انجام بدین).
- صفحه بندی های خودتون رو از Crawl فیلتر کنین.
- صادر کردن همه کلمات کلیدی ای که رتبه وبسایتتون رو برای استفاده از ارائه دهنده های مورد نظرتون در نظر میگیرن اون دسته از کلمات کلیدی ای رو که به عنوان یه لینک وبسایت فعال میشن رو فیلتر کنین.
- اون بخش از کلمات کلیدی ای رو که به عنوان تصویر فعال میشن رو حذف کنین.
- کلمات کلیدی نشان دار رو فیلتر کنین.
- از هر دو مورد صادر کردن برای درست کردن یه گزارش از فاصله ی توجه کلید واژه ها و داده های crawl با استفاده از پایتون کمک بگیرین.
Crawling در وبسایت مورد نظرتون
در این مطلب میخوایم از Screaming Frog برای دریافت Crawl اولیه وبسایت استفاده کنیم.
و همونجوری که خودتون میدونین، هر وسیله ای این کار رو تا زمان صادر شدن CSV از همون قسمت نام ستون ها استفاده میکنه.
یا اونقدر این کار رو ادامه میده که با نام های اونا مطابقت پیدا کنه.
و اسکریپت این انتظار رو داره که یه چنین ستون هایی رو در صادر کردن CSV پیدا کنه:
تنظیمات Crawl یا همون خزیدن
اولین کاری که شما باید در این زمینه انجام بدین اینه که به تنظیمات پیکربندی اصلی در Screaming Frog برین و مراحل زیر رو دنبال کنین:
اول بخش پیکربندی رو انتخاب کنین، بعد قسمت Spider و بعد هم قسمت Crawl رو پیدا کنین.
تنظیمات اصلی ای که شما برای کارتون بهش نیاز دارین موارد خزیدن لینک های داخلیتون، Canonicals و تنظیم صفحه بندی خودتون هستن.
بهتره بدونین که اسکریپت مورد نظرتون با موارد دیگه خیلی سریع کار میکنه ولی خزیدن یکم طول میکشه تا کامل بشه.
بعد از اینکه این کار ها رو دنبال کردین، وقتشه که به تب Extraction برین و مراحل زیر رو ادامه بدین.
در این قسمت هم باید حداقل عنوان صفحه و H1 رو داشته باشین و اونا رو استخراج و محاسبه کنین که آیا اون صفحه مورد نظرتون با توجه به این عوامل قابل فهرست بندین یا نه.
و یه موردی که میتونه در این قسمت براتون مهم و مفید باشه قابلیت ایندکس پذیریه.
چرا که یه راه ساده برای اسکریپت به حساب میاد که با استفاده از اون میتونه URL هایی رو که به صورت سریع رها میشن رو شناسایی کنه.
و در نتیجه فقط یسری کلمات کلیدی ای که واجد شرایط رتبه بندی در SERP ها هستن براتون باقی میمونن.
و در این زمینه یه موردی وجود داره و اونم اینه که اگه اسکریپت نتونه ستون نمایه سازی رو پیدا کنه، بازم میتونه به صورت عادی به کار خودش ادامه بده.
اما فقط یه موردی وجود داره و اونم اینه که تفاوتی بین صفحاتی که میتونن رتبه بندی بشن و یا اونایی که نمیتونن رتبه بندی بشن قائل نمیشه.
یه استخراج کننده سفارشی برای کپی صفحتون تنظیم کنین
برای اینکه بتونین یه بررسی انجام بدین و ببینین که آیا اون کلمه کلیدی مورد نظرتون در کپی اون صفحه پیدا میشه یانه.
باید بتونین یه استخراج کننده سفارشی رو در Screaming Frog تنظیم کنین.
برای این کار باید مراحلی رو که در ادامه براتون توضیح میدیم رو ادامه بدین.
اول به بخش پیکربندی برین و بخش سفارشی رو انتخاب کنین و در آخر هم بخش استخراج رو انتخاب کنین.
و همونجوری که در شکل زیر میبینین باید استخراج کننده رو کپی نام گذاری کنین.
یه نکته مهم در اینجا وجود داره و اونم اینه که:
اسکریپت ازتون انتظار دارد استخراج کننده مثل نمونه ای که در بالا بهتون نشون دادیم کپی نام گذاری شده باشه.
بنابراین بهتره این موضوع رو چند بار بررسی کنین.
و در نهایت هم باید مطمئن بشین که Extract Text برای صادر کردن کپی به عنوان متن، به جای HTML انتخاب شده باشه.
و اگه شما برای این موضوع به راهنمایی های بیشتری نیاز داشتین، بهتره بدونین که راهنما های زیادی برای استفاده از استخراج کننده های سفارشی آنلاین وجود دارن.
که شما میتونین با یه جست و جو اونا رو پیدا کنین و ازشون استفاده کنین.
بعد از اینکه استخراج رو تنظیم کردین، وقتشه که یه crawling در وبسایت مورد نظرتون داشته باشین و فایل HTML رو در قالب CSV صادر کنین.
صادر کردن فایل CSV
صادر کردن این فایل سادست و فقط کافیه مثل مراحل زیر عمل کنین.
و بعد از اینکه گزینه HTML رو انتخاب کردین دکمه Export رو انتخاب کنین.
بعد از اینکه روی Export کلیک کردین، اون وقته که باید مطمئن بشین نوع اون رو بر روی فرمت CSV تنظیم کرده باشین.
و بعد از اون باید به یه شکلی مثل تصویر زیر برسین:
نکته اولی که اینجا وجود داره اینه که صفحات دسته بندی شده رو باید به طور صحیح فیلتر کنین.
بهتون توصیه میکنیم که با انتخاب کردن گزینه Respect Next/Prev که در تنظیمات پیشرفته وجود داره، صفحات دسته بندی رو از خزیدن مورد نظرتون فیلتر کنین.
و اگه تمایل داشته باشین میتونین اونا رو فقط از فایل CSV خودتون حذف کنین.
این موضوع رو میتونین در شکل زیر ببینین.
نکته دومی که در اینجا وجود داره اینه که شما باید تنظیمات خزیدن و یا همون crawling رو برای خودتون ذخیره کنین.
همونجوری که خودتون میدونین، وقتی اون رو تنظیم کرده باشبن قطعا ارزشش رو داره که ذخیرش کنین.
و اگه بخواین دوباره در آینده از این اسکریپت اسفاده کنین، این کارتون باعث صرفه جویی در زمانتون میشه.
مراحل این کار رو هم در تصویر زیر میبینین:
صادر کردن کلمات کلیدی
وقتی که فایل خزیدن رو داشته باشین، اون وقته که باید ابزار تحقیقات کلمات کلیدی مورد نظرتون رو پیدا کنین.
و همه کلمات کلیدی ای رو که وبسایتتون براشون رتبه بندی میکنه رو برای اون نرم افزار وارد کنین.
هدفتون در این بخش هم اینه که اون نرم افزار از بین تمام کلمات کلیدی، اونایی که مارک دار هستن.
و یا یه لینک به وبسایت و تصویر دارن رو صادر کنه و براتون نمایش بده.
برای یه مثال در این موضوع، ما از گزارش کلمات کلیدی ارگانیک Ahrefs استفاده کردیم.
اما اگه این ابزار مد نظرتون نباشه، میتونین از یسری ابزار مفید دیگه هم در این زمینه استفاده کنین.
در این ابزار شما باید اول یه دامنه رو که میخواین در Site Explorer بررسی بشه رو وارد کنین و گزینه Organic Keyword رو برای خودتون انتخاب کنین.
این کارتون میتونه تمام کلید واژه هایی رو که اون وبسایت براشون رتبه بندی میکنه رو بهتون نشون بده.
لینک های وبسایت و تصاویر مورد نظرتون رو فیلتر کنین
قدم بعدی ای که وجود داره فیلتر کردن هر مورد از کلمات کلیدی ای محسوب میشه که به عنوان یه لینک وبسایت و یا تصویر راه اندازی شدن.
دلیل این کار هم اینه که اونا در واقع هیچ تاثیری روی رتبه بندی URL های اصلیتون ندارن.
و این موضوع هم به دلیل اینه که فقط صفحه اصلی برای کلمات کلیدی رتبه بندی میکنه و نه URL های لینک وبسایت هایی که زیر اون نمایش داده میشن.
فیلتر کردن لینک وبسایت ها میتونه بهتون تظمین کنه که صفحه رو به طور صحیح و کامل بهینه سازی میکنین.
و در تصویر های زیر نحوه این کار رو بهتون نشون دادیم:
و در آخر کارتون، بهتون توصیه میکنیم که همه کلمات کلیدی مارک دار رو برای خودتون فیلتر کنین.
شما میتونین این کار رو با استفاده از فیلتر کردن مستقیم خروجی CSV خودتون و یا پیش فیلتر کردن ابزار کلید واژه های انتخابی خودتون قبل از صادر کردن اونا انجام بدین.
و در نهایت وقتی دارین کار صادر کردن رو انجام میدین، مطمئن بشین که Export رو به صورت کامل انجام داده باشین و فرمت UTF-8 رو دقیقا مثل شکلی که براتون آوردیم انتخاب کرده باشین.
به طور پیش فرض این اسکریپت با Ahrefs و صادر کردن کلمات کلیدی Semrush کار میکنه.
همچنین بهتره بدونین که این اسکریپت میتونه با هر فایل CSV مربوط به کلمات کلیدی کار کنه اما فقط تا زمانی که نام ستون مورد انتظارش رو ببینه.
پردازش
الان که فایل های صادر شده خودتون رو دارین، تنها کاری که باید بکنین اینه که اونا رو برای پردازش در برگه Google Colaboratory آپلود کنین.
و مراحل اون رو هم برای ساده تر شدن کارتون، براتون آوردیم تا شما راحت تر مراحل رو دنبال کنین:
در مرحله بعد اسکریپت ازتون میخواد که کلمه کلیدی CSV رو از Ahrefs و یا Semrush انتخاب کنین و بعد از این کار فایل crawl رو آپلود کنین.
و این جا دیگه اسکریپت به طور کامل انجام شده.
این اسکریپت به طور خودکار یه فایل CSV قابل اجرا رو دانلود میکنه که میتونین از اون برای بهینه سازی وبسایتتون کمک بگیرین.
و همونجوری که دیدین، اگه با کل فرایند آشنا باشین، استفاده از این اسکریپت یه کار ساده براتون محسوب میشه.
البته این اسکریپت در واقع یسری کد نویسی پیچیده رو انجام میده که بوسیله اونا کار رو براتون راحت تر کرده و ما هم برای سادگی کارتون بهشون اشاره نکردیم.
البته برای آشنایی با اون کد نویسی ها هم میتونین با یه جست و جو در اینترنت بهشون دسترسی پیدا کنین.
و باز هم مثل مطالب قبل ممنونیم که تا انتهای این مطلب هم همراهمون بودین و همچنین امیدواریم که از مطالبی که گفتیم نهایت استفاده رو برده باشین.