شنبه ۱۲ آذر ۰۱ | ۱۰:۲۱ ۸ بازديد
در مقاله تاثیر خطای کراول گوگل در سئو وبسایت ما احساس ارا با ین خطا اشنا میکنیم و در اخر تاثیر هایی که این خطای بر بهینه سازی وب سایت می گذارد را به شما دوسداران سئوبلک فراگیری میدهیم.
خطای کراول یا خزنده چیست؟
خطاهای خزنده – crawl errors زمانی واقعه میافتند که یک موتور جستجو در پی برگهای از وبسایت شما میشود البته برنده به یافتن آن نمیشود. قبل از هر چیز فعالیت کراولینگ (Crawling) را برایتان پرنور سازی میکنیم. کراول فرایندی میباشد که در آن موتور جستجو از طریق یک ربات آحاد صفحات وبسایت شما را از حیث می گذراند. موتور جستجو یک پیوند به وبوبسایت شما پیدا میکند و آغاز به یافتن همه صفحه های آن میکند.
این ربات در میان صفحه ها و فهرست آحاد محتواهای شما میخزد (واژه Crawl در فارسی به معنای خزیدن میباشد) سئو کار خوب مشهد تا از آن در گوگل استفاده کند، بعلاوه تمام لینکهای این صفحه ها را به لیست صفحاتی اضافه میکند که هنوز باید کراول شوند. غرض اصلی شما به عنوان دارنده یک وبسایت این می باشد که اعتقاد و باور پیدا نمایید ربات موتور جستجو میتواند به کل صفحه ها وبوب سایت شما دسترسی پیدا کند. عدم موفقیت موتور جستجو دراین مراحل همان چیزی میباشد که ما از آن به نام خطاهای کراول خاطر میکنیم.
هدف شما می بایست اعتقاد یافتن از این امر باشد که هر لینک در وب سایت شما سبب به بارگزاری یک صفحه از سایتتان گردد. شاید این دستور از طریق تغییر مسیر(redirect 301) میسر شده باشد، اما صفحهای که در نقطه پایان از آن لینک و پیوند مشاهده می شود می بایست همیشه پاسخ مثبت – 200 از سرور بازگرداند.
گوگل خطاهای کراول را به دو تیم تقسیم میکند:
خطاهای سایت: مطمئنا شما خواهان این نوع اشتباه نیستید
چراکه این اشتباه نماد میدهد مجموع تارنما شما قابل کراول شدن نیست.
خطاهای URL: این خطاها نیز خوشایند نیستند
اما از آن جا که هر غلط به یک URL خاص مرتبط میباشد مواظبت و برطرف ساختن آن نسبت به مورد قبلی سادهتر هست.
تاثیر خطای کراول گوگل در سئو تارنما
ربات ها به صورت غیر قابل اجتناب یک کدام از مهمترین بخش های سایت شما و ترافیک کاربردی سایت شما را ساخت می کنند.
ولی کلیه ربات ها، ربات های بهتر نیستند. حداقل 19% از ربات ها سایت ها را با اهداف شوم کراول می کنند،آموزش سئو در مشهد اهدافی مانند سرقت محتوا، کشف کردن زخم پذیری ها یا دزدیدن داده ها.
حتی درحالتی که که همت آنان ناموفق باشد، حمله های دائم از طرف این نرم افزار های خودکار، ممکن می باشد باعث شود که ربات های گوگل نتوانند وب سایت شمارا کراول کنند.
ربات های بد از پهنای باند وب سایت شما و منابع سرور مشابه با یک ربات بهتر یا یک بازدید کننده بی آلایش، به کارگیری می کنند.
ولی، در صورتیکه که سرور شما زیر تاثیر وظایف اتوماتیک و مکرر ربات های گوناگون در طی زمان زمان بر قرار داشته باشد، ممکن هست که ترافیک وبسایت شما کند شود. در سود، سرور شما ممکن می باشد دیگر به صفحه ها وب سایت شما سرویس ندهد.
این نوع ارور، صرفا در طی به کار گیری بیش از حد از سرور شکل می دهد
با وجود این که فعالیت ربات های خوب معمولا قابل رئیس هست،مدرس سئو مشهد اما گاهی آن ها هم میتوانند به صورت بیش تر از اندازه از منابع سرور شما استعمال کنند. در صورتیکه که شما محتوای زیادی به وب سایت خودتان اضافه نمائید، کراول شدن شدید تارنما برای ایندکس کردن محتوای تازه ممکن است سرور شمارا با نقص رو به رو کند.
به صورت مشابه، ممکن هست ربات های بهتر نیز با یک خطا در وبسایت شما رو به رو شوند و مجبور شوند عملیاتی با هزینه منابع بسیار بالا ایفا دهند و یا در یک حلقه بی نهایت گیر کنند.
برای پیشگیری از این اشتباهات، بیشتر وب سایت ها از یک نحوه کش در طرف سرور به کارگیری می کنند که این کشینگ، یک نسخه از پیش تشکیل شده از تارنما آن ها را ارائه می کند و برای هر درخواست از طرف بازدید کننده یا ربات، دیگر تک تک شیت را دوباره ایجاد کرد نمی کند و اینراه از حیث منابع، بسیار مقرون به صرفه میباشد. همچنین زمان لود صفحات برای بازدید کننده های حقیقی نیز کاهش پیدا می کند که این آیتم برای گوگل التفات زیادی دارد.
ولی نمی توانید با اینراه مشخص کنید که ربات های موتور جستجو در چه تکرار زمانی وبسایت شما را کراول می کنند، بلکه صرفا میتوانید سطح منابع آیتم استعمال آنان را مشخص فرمایید.
برای این که بتوانید این شرایط را به صورت بهینه مدیریت فرمایید، شما باید خطراتی که علیه شما و مدل کسب و کار خاص مشتری های شما وجود دارااست را شناسایی نمایید.
همچنین شما بایستی سیستم هایی را ایجاد نمایید که بتوانند میان ترافیک یک ربات بد، ترافیک ربات بهتر و کارهای انسانی را نسبت به یکدیگر متمایز کند. در صورتی این شغل به صورت ضعیف صورت بپذیرد، ممکن میباشد تاثیر کارهای سئو شما کاهش پیدا کند و یا حتی بازدید کننده های با ارزش، نتوانند از سرویس شما به صورت اثر گذار استفاده کنند.
خطای کراول یا خزنده چیست؟
خطاهای خزنده – crawl errors زمانی واقعه میافتند که یک موتور جستجو در پی برگهای از وبسایت شما میشود البته برنده به یافتن آن نمیشود. قبل از هر چیز فعالیت کراولینگ (Crawling) را برایتان پرنور سازی میکنیم. کراول فرایندی میباشد که در آن موتور جستجو از طریق یک ربات آحاد صفحات وبسایت شما را از حیث می گذراند. موتور جستجو یک پیوند به وبوبسایت شما پیدا میکند و آغاز به یافتن همه صفحه های آن میکند.
این ربات در میان صفحه ها و فهرست آحاد محتواهای شما میخزد (واژه Crawl در فارسی به معنای خزیدن میباشد) سئو کار خوب مشهد تا از آن در گوگل استفاده کند، بعلاوه تمام لینکهای این صفحه ها را به لیست صفحاتی اضافه میکند که هنوز باید کراول شوند. غرض اصلی شما به عنوان دارنده یک وبسایت این می باشد که اعتقاد و باور پیدا نمایید ربات موتور جستجو میتواند به کل صفحه ها وبوب سایت شما دسترسی پیدا کند. عدم موفقیت موتور جستجو دراین مراحل همان چیزی میباشد که ما از آن به نام خطاهای کراول خاطر میکنیم.
هدف شما می بایست اعتقاد یافتن از این امر باشد که هر لینک در وب سایت شما سبب به بارگزاری یک صفحه از سایتتان گردد. شاید این دستور از طریق تغییر مسیر(redirect 301) میسر شده باشد، اما صفحهای که در نقطه پایان از آن لینک و پیوند مشاهده می شود می بایست همیشه پاسخ مثبت – 200 از سرور بازگرداند.
گوگل خطاهای کراول را به دو تیم تقسیم میکند:
خطاهای سایت: مطمئنا شما خواهان این نوع اشتباه نیستید
چراکه این اشتباه نماد میدهد مجموع تارنما شما قابل کراول شدن نیست.
خطاهای URL: این خطاها نیز خوشایند نیستند
اما از آن جا که هر غلط به یک URL خاص مرتبط میباشد مواظبت و برطرف ساختن آن نسبت به مورد قبلی سادهتر هست.
تاثیر خطای کراول گوگل در سئو تارنما
ربات ها به صورت غیر قابل اجتناب یک کدام از مهمترین بخش های سایت شما و ترافیک کاربردی سایت شما را ساخت می کنند.
ولی کلیه ربات ها، ربات های بهتر نیستند. حداقل 19% از ربات ها سایت ها را با اهداف شوم کراول می کنند،آموزش سئو در مشهد اهدافی مانند سرقت محتوا، کشف کردن زخم پذیری ها یا دزدیدن داده ها.
حتی درحالتی که که همت آنان ناموفق باشد، حمله های دائم از طرف این نرم افزار های خودکار، ممکن می باشد باعث شود که ربات های گوگل نتوانند وب سایت شمارا کراول کنند.
ربات های بد از پهنای باند وب سایت شما و منابع سرور مشابه با یک ربات بهتر یا یک بازدید کننده بی آلایش، به کارگیری می کنند.
ولی، در صورتیکه که سرور شما زیر تاثیر وظایف اتوماتیک و مکرر ربات های گوناگون در طی زمان زمان بر قرار داشته باشد، ممکن هست که ترافیک وبسایت شما کند شود. در سود، سرور شما ممکن می باشد دیگر به صفحه ها وب سایت شما سرویس ندهد.
این نوع ارور، صرفا در طی به کار گیری بیش از حد از سرور شکل می دهد
با وجود این که فعالیت ربات های خوب معمولا قابل رئیس هست،مدرس سئو مشهد اما گاهی آن ها هم میتوانند به صورت بیش تر از اندازه از منابع سرور شما استعمال کنند. در صورتیکه که شما محتوای زیادی به وب سایت خودتان اضافه نمائید، کراول شدن شدید تارنما برای ایندکس کردن محتوای تازه ممکن است سرور شمارا با نقص رو به رو کند.
به صورت مشابه، ممکن هست ربات های بهتر نیز با یک خطا در وبسایت شما رو به رو شوند و مجبور شوند عملیاتی با هزینه منابع بسیار بالا ایفا دهند و یا در یک حلقه بی نهایت گیر کنند.
برای پیشگیری از این اشتباهات، بیشتر وب سایت ها از یک نحوه کش در طرف سرور به کارگیری می کنند که این کشینگ، یک نسخه از پیش تشکیل شده از تارنما آن ها را ارائه می کند و برای هر درخواست از طرف بازدید کننده یا ربات، دیگر تک تک شیت را دوباره ایجاد کرد نمی کند و اینراه از حیث منابع، بسیار مقرون به صرفه میباشد. همچنین زمان لود صفحات برای بازدید کننده های حقیقی نیز کاهش پیدا می کند که این آیتم برای گوگل التفات زیادی دارد.
ولی نمی توانید با اینراه مشخص کنید که ربات های موتور جستجو در چه تکرار زمانی وبسایت شما را کراول می کنند، بلکه صرفا میتوانید سطح منابع آیتم استعمال آنان را مشخص فرمایید.
برای این که بتوانید این شرایط را به صورت بهینه مدیریت فرمایید، شما باید خطراتی که علیه شما و مدل کسب و کار خاص مشتری های شما وجود دارااست را شناسایی نمایید.
همچنین شما بایستی سیستم هایی را ایجاد نمایید که بتوانند میان ترافیک یک ربات بد، ترافیک ربات بهتر و کارهای انسانی را نسبت به یکدیگر متمایز کند. در صورتی این شغل به صورت ضعیف صورت بپذیرد، ممکن میباشد تاثیر کارهای سئو شما کاهش پیدا کند و یا حتی بازدید کننده های با ارزش، نتوانند از سرویس شما به صورت اثر گذار استفاده کنند.
- ۰ ۰
- ۰ نظر