آموزش, آموزش سئو تکنیکال

درک گزارش Search Console Coverage + راه حل رفع خطاهای آن

گزارش Search Console Coverage اطلاعاتی را در مورد صفحاتی که در طراحی سایت شما ایندکس شده اند ارائه می دهد و URL هایی را لیست می کند که Googlebot هنگام خزیدن آن ها با مشکل مواجه شده است. صفحه اصلی در گزارش Coverage، نشانی‌های وب سایت شما را بر اساس وضعیت آن ها به صورت زیر گروه‌بندی می‌کند:

Error: the page isn’t indexedیعنی صفحه ایندکس نشده است. دلایل مختلفی برای این خطا در گزارش Coverage وجود دارد. مثل صفحاتی که ارور 404 دارند، صفحات نرم 404 و موارد دیگر.
Valid with warningsصفحه ایندکس شده است اما مشکل دارد.
Valid صفحه ایندکس شده است.
Excluded pageصفحه ایندکس نشده است! گوگل از قوانینی در سایت مانند تگ های noindex در robots.txt یا متا تگ ها، تگ های canonical و غیره پیروی می کند که از ایندکس شدن صفحات جلوگیری می کند.
گزارش Search Console Coverage

گزارش Coverage اطلاعات بسیار بیشتری نسبت به سرچ کنسول قدیمی گوگل ارائه می دهد. گوگل واقعا داده هایی را که به اشتراک می گذارد بهبود بخشیده است. اما هنوز مواردی وجود دارد که نیاز به بهبود دارند! همانطور که در زیر می بینید، گوگل نموداری را با تعداد URL ها در هر دسته نشان می دهد. در صورت افزایش ناگهانی خطاها، می‌توانید نوارها را ببینید و حتی آن را با نمایش‌ها مرتبط کنید تا تعیین کنید که آیا افزایش URL‌های دارای خطا یا اخطار می‌تواند باعث کاهش نمایش‌ها شود یا خیر.

درک گزارش گوگل از صفحات
گزارش سرچ کنسول

با این حال، اگر شاهد کاهش تعداد URL های معتبر یا افزایش ناگهانی آن هستید، مهم است که روی شناسایی URL ها در بخش Errors کار کنید و مشکلات ذکر شده در گزارش را برطرف کنید. Google خلاصه خوبی از اقدامات انجام می دهد که در صورت افزایش خطا یا هشدار انجام می شود.

Google اطلاعاتی در مورد خطاها و تعداد URL هایی که این مشکل را دارند ارائه می دهد:

به یاد داشته باشید که کنسول جستجوی گوگل اطلاعات 100٪ دقیق را نشان نمی دهد. در واقع، چندین گزارش در مورد باگ ها و ناهنجاری های داده وجود دارد. علاوه بر این، کنسول جستجوی گوگل برای به روز رسانی زمان می برد، به دلیل اینکه داده ها 16 روز تا 20 روز عقب مانده شناخته شده است. همچنین، گزارش گاهی اوقات فهرستی بیش از 1000 صفحه را در خطاها یا دسته های هشدار همانطور که در تصویر بالا می بینید نشان می دهد، اما فقط به شما امکان می دهد نمونه ای از 1000 URL را مشاهده و دانلود کنید تا بررسی و بررسی شود.

با این وجود، این یک ابزار عالی برای یافتن مشکلات نمایه سازی در سایت شما است:

وقتی روی یک خطای خاص کلیک می کنید، می توانید صفحه جزئیات را ببینید که نمونه هایی از URL ها را فهرست می کند:

همانطور که در تصویر بالا می بینید، این صفحه جزئیات برای همه URL هایی است که با 404 پاسخ می دهند. هر گزارش دارای پیوند “بیشتر بیاموزید” است که شما را به صفحه اسناد Google می برد که جزئیات مربوط به آن خطای خاص را ارائه می دهد. گوگل همچنین نموداری ارائه می دهد که تعداد صفحات آسیب دیده را در طول زمان نشان می دهد.

می‌توانید روی هر URL کلیک کنید تا URL را که شبیه ویژگی قدیمی «fetch as Googlebot» از کنسول جستجوی قدیمی Google است، بررسی کنید. همچنین می توانید تست کنید که آیا صفحه توسط robots.txt شما مسدود شده است یا خیر

پس از اصلاح آدرس‌های اینترنتی، می‌توانید از Google درخواست کنید تا آنها را تأیید کند تا خطا از گزارش شما محو شود. شما باید رفع مشکلاتی را که در حالت اعتبارسنجی «شکست خورده» یا «شروع نشده» هستند در اولویت قرار دهید.

ذکر این نکته ضروری است که نباید انتظار داشته باشید که همه URL های سایت شما ایندکس شوند. گوگل بیان می کند که هدف مدیر وب سایت باید ایندکس کردن همه URL های متعارف باشد. صفحات تکراری یا جایگزین به‌عنوان مستثنی طبقه‌بندی می‌شوند، زیرا دارای محتوای مشابه با صفحه متعارف هستند.

طبیعی است که سایت ها دارای چندین صفحه در دسته بندی حذف شده باشند. اکثر وب سایت ها دارای چندین صفحه بدون متا تگ شاخص هستند یا از طریق robots.txt مسدود می شوند. هنگامی که گوگل یک صفحه تکراری یا جایگزین را شناسایی می کند، باید مطمئن شوید که آن صفحات دارای یک برچسب متعارف هستند که به URL صحیح اشاره می کند و سعی کنید معادل متعارف را در دسته معتبر پیدا کنید.

گوگل یک فیلتر کشویی در سمت چپ بالای گزارش قرار داده است تا بتوانید گزارش را برای تمام صفحات شناخته شده، همه صفحات ارسال شده یا URL ها در یک نقشه سایت خاص فیلتر کنید. گزارش پیش فرض شامل تمام صفحات شناخته شده است که شامل همه URL های کشف شده توسط Google است. همه صفحات ارسال شده شامل همه URL هایی است که از طریق نقشه سایت گزارش کرده اید. اگر چندین نقشه سایت ارسال کرده اید، می توانید بر اساس URL ها در هر نقشه سایت فیلتر کنید.

[مطالعه موردی] بودجه خزیدن را در صفحات استراتژیک افزایش دهید
بیشتر ترافیک Manageo از جستجوی ارگانیک می آید. این ترافیک عمدتاً متکی به جستجوهای طولانی مدت است و نیاز به بهینه سازی میلیون ها کلمه کلیدی را به طور همزمان ایجاد می کند. بودجه خزیدن به سرعت تبدیل به یک موضوع شد.
مطالعه موردی را بخوانید
خطاها، هشدارها، URL های معتبر و حذف شده
خطا
خطای سرور (5xx): زمانی که Googlebot سعی کرد صفحه را بخزد، سرور یک خطای 500 را برگرداند.
خطای تغییر مسیر: وقتی Googlebot URL را خزید، یک خطای تغییر مسیر وجود داشت، یا به دلیل طولانی بودن زنجیره، یک حلقه تغییر مسیر، URL از حداکثر طول URL بیشتر بود یا یک URL بد یا خالی در زنجیره تغییر مسیر وجود داشت.
URL ارسال شده توسط robots.txt مسدود شده است: URL های موجود در این لیست توسط فایل robts.txt شما مسدود شده اند.
URL ارسال شده با علامت “noindex”: آدرس‌های اینترنتی موجود در این لیست دارای یک برچسب متا روبات “noindex” یا هدر http هستند.
به نظر می رسد URL ارسال شده یک Soft 404 باشد: یک خطای 404 زمانی رخ می دهد که صفحه ای که وجود ندارد (حذف شده یا هدایت شده است) پیام “صفحه یافت نشد” را به کاربر نمایش می دهد اما کد وضعیت HTTP 404 را باز نمی گرداند. Soft 404 همچنین زمانی اتفاق می‌افتد که صفحات به صفحات غیرمرتبط هدایت شوند، به عنوان مثال یک صفحه به جای بازگرداندن کد وضعیت 404 یا هدایت مجدد به صفحه مربوطه، به صفحه اصلی هدایت می‌شود.
URL ارسال شده درخواست غیرمجاز را برمی گرداند (401): صفحه ارسال شده برای نمایه سازی یک پاسخ HTTP غیرمجاز 401 را برمی گرداند.
URL ارسال شده یافت نشد (404): وقتی Googlebot سعی کرد صفحه را بخزد، صفحه با خطای 404 Not Found پاسخ داد.
URL ارسال شده دارای مشکل خزیدن است: Googlebot هنگام خزیدن این صفحات با خطای خزیدن مواجه شد که در هیچ یک از دسته بندی های دیگر قرار نمی گیرد. شما باید هر URL را بررسی کنید و مشخص کنید که مشکل چه بوده است.
هشدار
ایندکس شده، اگرچه توسط robots.txt مسدود شده است: صفحه ایندکس شده است زیرا Googlebot از طریق پیوندهای خارجی که به صفحه اشاره می کنند به آن دسترسی داشته است، اما صفحه توسط robots.txt شما مسدود شده است. گوگل این نشانی‌های اینترنتی را به‌عنوان هشدار علامت‌گذاری می‌کند، زیرا مطمئن نیستند که آیا صفحه واقعاً باید از نمایش در نتایج جستجو مسدود شود یا خیر. اگر می‌خواهید صفحه‌ای را مسدود کنید، باید از متا تگ noindex استفاده کنید یا از هدر پاسخ HTTP noindex استفاده کنید.
اگر گوگل درست است و URL به اشتباه مسدود شده است، باید فایل robots.txt خود را به روز کنید تا به گوگل اجازه دهید صفحه را بخزد.

معتبر
ارسال شده و ایندکس شده: آدرس هایی که از طریق sitemap.xml برای نمایه سازی به گوگل ارسال کرده اید و ایندکس شده اند.
ایندکس شده، در نقشه سایت ارسال نشده است: URL توسط گوگل کشف و نمایه شده است، اما در نقشه سایت شما گنجانده نشده است. توصیه می‌شود نقشه سایت خود را به‌روزرسانی کنید و هر صفحه‌ای را که می‌خواهید گوگل آن‌ها را بخزد و ایندکس کند، درج کنید.
مستثنی شده است
با تگ «noindex» کنار گذاشته می‌شود: وقتی Google سعی کرد صفحه را ایندکس کند، یک تگ متا روبات «noindex» یا هدر HTTP پیدا کرد.
مسدود شده توسط ابزار حذف صفحه: شخصی با استفاده از درخواست حذف URL در Google Search Console درخواستی به Google ارسال کرده است که این صفحه را فهرست نمی کند. اگر می خواهید این صفحه ایندکس شود، وارد کنسول جستجوی گوگل شوید و آن را از لیست صفحات حذف شده حذف کنید.
مسدود شده توسط robots.txt: فایل robots.txt دارای خطی است که نشانی اینترنتی را از خزیدن حذف می کند. با استفاده از تستر robots.txt می توانید بررسی کنید که کدام خط این کار را انجام می دهد.
مسدود شده به دلیل درخواست غیرمجاز (401): مانند دسته خطا، صفحات اینجا با هدر HTTP 401 باز می گردند.
ناهنجاری Crawl: این یک دسته بندی جامع است، URL های اینجا یا با کدهای پاسخ سطح 4xx یا 5xx پاسخ می دهند. این کدهای پاسخ از ایندکس شدن صفحه جلوگیری می کنند.
خزیده شده – در حال حاضر ایندکس نشده است: گوگل دلیلی برای ایندکس نشدن URL ارائه نمی کند. آنها پیشنهاد می کنند که URL را دوباره برای فهرست بندی ارسال کنید. با این حال، مهم است که بررسی کنید آیا صفحه دارای محتوای نازک یا تکراری است، در صفحه دیگری متعارف است، دارای دستورالعمل noindex است، معیارها تجربه کاربری بد، زمان بارگذاری صفحه بالا و غیره را نشان می‌دهند. دلایل مختلفی می‌تواند وجود داشته باشد که Google نمی خواهد صفحه را ایندکس کند.
کشف شد – در حال حاضر ایندکس نشده است: صفحه پیدا شد اما گوگل آن را در فهرست خود قرار نداده است. شما می توانید URL را برای نمایه سازی ارسال کنید تا روند را مانند آنچه در بالا ذکر کردیم تسریع کنید. گوگل بیان می کند که دلیل معمول این اتفاق این است که سایت بیش از حد بارگذاری شده است و گوگل خزیدن را دوباره برنامه ریزی کرده است.
صفحه جایگزین با برچسب متعارف مناسب: گوگل این صفحه را ایندکس نکرد زیرا دارای یک تگ متعارف است که به URL دیگری اشاره دارد. گوگل از قانون متعارف پیروی کرده و URL متعارف را به درستی ایندکس کرده است. اگر منظور شما این بود که این صفحه ایندکس نشود، در اینجا چیزی برای اصلاح وجود ندارد.
تکراری بدون متعارف انتخاب شده توسط کاربر: Google موارد تکراری برای صفحات فهرست شده در این دسته پیدا کرده است و هیچ کدام از برچسب های متعارف استفاده نمی کنند. گوگل نسخه متفاوتی را به عنوان تگ متعارف انتخاب کرده است. شما باید این صفحات را مرور کنید و یک برچسب متعارف اضافه کنید که به URL صحیح اشاره می کند.
تکراری، Google موارد متعارف متفاوتی را نسبت به کاربر انتخاب کرد: آدرس‌های اینترنتی در این دسته توسط Google بدون درخواست خزیدن صریح کشف شده‌اند. گوگل اینها را از طریق پیوندهای خارجی پیدا کرده و تشخیص داده است که صفحه دیگری وجود دارد که یک canonical بهتر را ایجاد می کند. گوگل به این دلیل این صفحات را ایندکس نکرده است. گوگل توصیه می کند که این URL ها را به عنوان تکراری از canonical علامت گذاری کنید.
یافت نشد (404): وقتی Googlebot سعی می کند به این صفحات دسترسی پیدا کند، با خطای 404 پاسخ می دهند. گوگل بیان می کند که این URL ها ارسال نشده اند، این URL ها از طریق پیوندهای خارجی که به این URL ها اشاره می کنند پیدا شده اند. ایده خوبی است که این URL ها را به صفحات مشابه هدایت کنید تا از مزایای ارزش لینک استفاده کنید و همچنین مطمئن شوید که کاربران در یک صفحه مربوطه قرار می گیرند.
صفحه به دلیل شکایت حقوقی حذف شد: شخصی از این صفحات به دلیل مشکلات قانونی مانند نقض حق نسخه برداری شکایت کرده است. در اینجا می توانید شکایت حقوقی ارائه شده را درخواست کنید.
صفحه با تغییر مسیر: این URL ها در حال تغییر مسیر هستند، بنابراین حذف می شوند.
Soft 404: همانطور که در بالا توضیح داده شد، این نشانی‌های اینترنتی مستثنی هستند، زیرا باید با 404 پاسخ دهند. صفحات را بررسی کنید و مطمئن شوید که اگر پیام «یافت نشد» برای آن‌ها با هدر 404 HTTP وجود دارد.
URL ارسالی تکراری به‌عنوان متعارف انتخاب نشده است: مشابه «Google canonical متفاوت از کاربر را انتخاب کرد»، اما URL‌های این دسته توسط شما ارسال شده‌اند. ایده خوبی است که نقشه سایت خود را بررسی کنید و مطمئن شوید که هیچ صفحه تکراری در آن وجود ندارد.
نحوه استفاده از داده ها و آیتم های اقدام برای بهبود سایت
با کار در یک آژانس، به بسیاری از سایت های مختلف و گزارش های پوشش آنها دسترسی دارم. من برای تجزیه و تحلیل خطاهایی که Google در دسته‌های مختلف گزارش می‌کند، وقت گذاشته‌ام.
یافتن مشکلات مربوط به متعارف سازی و محتوای تکراری مفید بوده است، با این حال گاهی اوقات با مواردی که توسط @jroakes گزارش شده، با مغایرت هایی مواجه می شوید:

به نظر می‌رسد Google Search Console > URL Inspection > Live Test همه فایل‌های JS و CSS را به‌عنوان Crawl مجاز گزارش می‌کند: خیر: توسط robots.txt مسدود شده است. حدود 20 فایل را در 3 دامنه آزمایش کنید. pic.twitter.com/fM3WAcvK8q

– JR%20Oakes ???? (@jroakes) 16 ژوئیه 2019

AJ Koh، بلافاصله پس از در دسترس قرار گرفتن کنسول جستجوی جدید گوگل، مقاله ای عالی نوشت و توضیح داد که ارزش واقعی داده ها استفاده از آن برای ترسیم تصویری از سلامت برای هر نوع محتوای سایت شما است:

همانطور که در تصویر بالا می بینید، URL ها از دسته های مختلف در گزارش پوشش بر اساس قالب صفحه مانند وبلاگ، صفحه خدمات و غیره طبقه بندی شده اند. استفاده از چندین نقشه سایت برای انواع مختلف URL ها می تواند به این کار کمک کند زیرا گوگل اجازه می دهد. شما می توانید اطلاعات پوشش را بر اساس نقشه سایت فیلتر کنید. سپس سه ستون با اطلاعات زیر شامل درصد صفحات فهرست شده و ارسال شده، نرخ معتبر و درصد کشف شده قرار داد.

این جدول واقعاً یک نمای کلی از سلامت سایت شما به شما می دهد. اکنون اگر می‌خواهید بخش‌های مختلف را بررسی کنید، توصیه می‌کنم گزارش‌ها را مرور کنید و خطاهای ارائه‌شده توسط گوگل را دوباره بررسی کنید.

می‌توانید همه URL‌های ارائه‌شده در دسته‌های مختلف را دانلود کنید و از OnCrawl برای بررسی وضعیت HTTP، تگ‌های متعارف و غیره استفاده کنید و یک صفحه گسترده مانند این ایجاد کنید:

سازمان‌دهی داده‌های خود به این صورت می‌تواند به پیگیری مشکلات و همچنین افزودن موارد اقدام برای URL‌هایی که نیاز به بهبود یا اصلاح دارند کمک کند. همچنین، می‌توانید URL‌هایی را که درست هستند و هیچ اقدامی لازم نیست، در مورد آن URL‌هایی با پارامترهایی که تگ‌های متعارف به درستی اجرا می‌کنند، بررسی کنید.

حتی می توانید اطلاعات بیشتری را از منابع دیگر مانند ahrefs، Majestic و Google Analytics با ادغام OnCrawl به این صفحه گسترده اضافه کنید. این به شما امکان می دهد داده های پیوند و همچنین داده های ترافیک و تبدیل را برای هر یک از URL ها در کنسول جستجوی گوگل استخراج کنید. همه این داده ها می توانند به شما کمک کنند تا تصمیمات بهتری در مورد اینکه برای هر صفحه چه کاری انجام دهید، بگیرید، برای مثال اگر لیستی از صفحات با 404 دارید، می توانید آن را با بک لینک ها گره بزنید تا مشخص کنید آیا ارزش پیوند را از دامنه هایی که به آنها پیوند می دهند از دست می دهید یا خیر. صفحات شکسته در سایت شما یا می توانید صفحات ایندکس شده و میزان ترافیک ارگانیک آنها را بررسی کنید. می‌توانید صفحات فهرست‌شده‌ای را که ترافیک ارگانیک دریافت نمی‌کنند شناسایی کنید و روی بهینه‌سازی آن‌ها (بهبود محتوا و قابلیت استفاده) کار کنید تا به جذب ترافیک بیشتر به آن صفحه کمک کنید.

با این داده های اضافی، می توانید یک جدول خلاصه در صفحه گسترده دیگری ایجاد کنید. شما می توانید از فرمول =COUNTIF (محدوده، معیار) برای شمارش URL ها در هر نوع صفحه استفاده کنید (این جدول می تواند مکمل جدولی باشد که AJ Kohn در بالا پیشنهاد کرده است). همچنین می توانید از فرمول دیگری برای اضافه کردن بک لینک ها، بازدیدها یا تبدیل هایی که برای هر URL استخراج کرده اید استفاده کنید و آنها را در جدول خلاصه خود با فرمول زیر =SUMIF (محدوده، معیار، [sum_range]) نشان دهید. شما چیزی شبیه به این دریافت خواهید کرد:

من واقعاً دوست دارم با جداول خلاصه کار کنم که می‌توانند نمای خلاصه‌ای از داده‌ها را به من بدهند و می‌توانند به من کمک کنند بخش‌هایی را که باید ابتدا روی اصلاح آنها تمرکز کنم، شناسایی کنم.

افکار نهایی
هنگام کار بر روی رفع مشکلات و مشاهده داده های این گزارش باید به آن فکر کنید: آیا سایت من برای خزیدن بهینه شده است؟ آیا صفحات ایندکس شده و معتبر من در حال افزایش یا کاهش هستند؟ صفحات دارای خطا در حال افزایش یا کاهش هستند؟ آیا به گوگل اجازه می‌دهم روی URL‌هایی که ارزش بیشتری برای کاربران من به ارمغان می‌آورند وقت بگذارد یا صفحات بی‌ارزش زیادی پیدا می‌کند؟ با پاسخ به این سؤالات، می توانید شروع به بهبود در سایت خود کنید تا Googlebot بودجه خزیدن خود را صرف صفحاتی کند که می توانند به جای صفحات بی ارزش برای کاربران شما ارزش ارائه کنند. می‌توانید از robots.txt خود برای کمک به بهبود کارایی خزیدن، حذف URL‌های بی‌ارزش در صورت امکان یا استفاده از برچسب‌های canonical یا noindex برای جلوگیری از محتوای تکراری استفاده کنید.

Google به افزودن قابلیت‌ها و به‌روزرسانی دقت داده‌ها به گزارش‌های مختلف در کنسول جستجوی Google ادامه می‌دهد، بنابراین امیدواریم همچنان داده‌های بیشتری را در هر یک از دسته‌های گزارش پوشش و همچنین گزارش‌های دیگر در کنسول جستجوی Google مشاهده کنیم.

………………………………………………………………

گزارش Search Console Coverage

Rate this post

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *