مقالات سئو

شرح مقالات سئو

مقالات سئو

شرح مقالات سئو

چه کنیم تا وبسایت ها برای خزنده وب بهینه شوند؟

زمانی نوبت به بهینه سازی میرسد ، امکان کراول پذیری وبسایت توسط کراولر ها یا خزنده وب یکی از موضوعاتی است که خیلی اهمیتی به آن داده نمیشود. این دستور بسیار خطا میباشد زیرا قابلیت و امکان خزش یک بخش جدایی ناپذیر از بهینه سازی هست. با بهبود قابلیت خزش پذیری وب سایت خود ، اعتقادوباور نتیجه ها میکنید که گوگل از تارنما شما با خبر می باشد. و هنگامی گوگل بفهمد سایت شما چیست ، به درستی آن را رتبه بندی می کند و باعث خوب شدن مقام شما در نتیجه ها جستجو میشود.


آیا می خواهید درباره راز جایگاه بندی در گوگل اطلاعات بیشتری استخراج کنید؟ پس ادامه نوشته ی علمی را بخوانید!


خزنده وب یا کراولر چیست؟

موتور های جستجو به منظور مرور ، ایندکس کردن و مرتبه بندی صدها میلیون کاغذ وب در اینترنت، از ربات های ویژه ای به نام خزنده یا کراولر به کارگیری می کنند که به عنکبوت های وب پر اسم و رسم میباشند (زیرا مانند عنکبوت میخزند). ولی به لحاظ ما این خزنده های وب (Crawlerها) بیشتر شبیه زنبور های نیروی کار اینترنت میباشند.


این خزنده ها اینترنت را جستجو می کنند و صفحه های وب جدیدی را برای به حساب آوردن و فهرست بندی ایندکس می کنند. آن ها از لینک و پیوند به لینک و پیوند، URL به URL می‌روند و داده ها را به سرورهای مرکزی موتور جستجو بازمی گردانند تا بتوانند در پایگاه داده گوگل مخلوط شوند. در اصلً، آن ها خط مقدم اینترنت هستند که با شناسایی داده های نو و طبقه بندی آن‌ها، دامنه اینترنت را توسعه و گسترش می‌دهند.


قابلیت خزش یا Crawlability چیست؟

فعلا که میدانید crawler چیست به Crawlability می‌پردازیم. کراول پذیری یا قابلیت خزش به سهولت پردازش یا خزیدن اطلاعات در وب سایت برای موتور جستجو اشاره داراست.




یک سایت که قابلیت خزش داراست دارای ویژگی های تحت هست:


یک طرح بندی و دکورا سیون واضح

یک نقشه وب سایت بدون واسطه

دسترسی شل و ول به پیوندهای داخلی هر ورقه از محتوا

موتورهای جستجو این مختصات را دوست دارند زیرا سبب ساز پیمایش وب سایت میگردند. در سود ، موتور جستجو برای ایندکس کردن وب سایت زمان کمتری نیاز دارد.


در طرف مقابل ، یک تارنما که امکان خزش زیادی ندارد دارای ویژگی های تحت می باشد:

یک نقشه وب سایت ناهماهنگ

پیوندهای شکسته

خطا های 404

صفحات وب بن بست

اینها ویژگی های خیر برای صفحات وب نیستند زیرا مسیر یابی و سکو بندی را برای موتورهای جستجو و خزنده های وب غامض تر می کنند.

تا اینجا خیلی ساده بود نه؟ پس بیایید یه خرده بیشتر به جزئیات بپردازیم ، با خزنده ها استارت می‌کنیم.

چرا قابلیت و امکان خزش برای بهینه سازی وبسایت اساسی می باشد؟

جمعاَ ، وقتی که ما در ارتباط سئو حرف می‌کنیم ، در زمینه ی بهبود تجربیات کاربر صحبت می‌کنیم. ما در ادامه منش هایی برای بهینه سازی وبسایت هستیم تا تلاوت ، پیمایش و فهم و شعور آن برای بشر شل و ول تر باشد.

با این وجود قابلیت و امکان خزش نوعی seo فنی می باشد. ما در‌پی بهبود تجربیات استفاده کننده نیستیم. ما به دنبال بهبود تجربیات خزنده وب هستیم. ما می خواهیم دسترسی به ربات های گوگل را برای دسترسی به اطلاعات ذخیره شده در سایت شما شل و ول کنیم.

چرا اصلی میباشد؟

نداشتن قابلیت و امکان خزش به درجه بندی موتور کاوشگر شما آسیب میرساند. گوگل نمیخواهد برای ایندکس کردن تارنما شما خود را در زحمت بیندازد. آنان می خواهند داده های وبسایت شما برای خواننده گان و خزنده ها و ربات هایشان مبرهن ، قابل تلاوت و در دسترس باشد. در حالتی که گوگل در پردازش سایت شما اختلال داشته باشد، جریمه و مجازات خواهید شد.

ربات های خزنده دارای چیزی می‌باشند که میزان دارایی خزش یا Crawl Budget نامیده می‌شود: حد بالایی برای ترازو فرصت و منابعی که میتوانند در هر وب سایت صرف کنند. در‌صورتی‌که خزنده تمام وقت خود را به مرور تارنما شما اختصاص داده است به جای اینکه در واقع محتوا را پیمایش کند، این بر مرتبه بندی آنلاین شما تأثیر میگذارد. در بدترین حالت، حتی ممکن می‌باشد از نمایه سازی وبسایت شما غربت کند و شما‌را از نمایش در نتیجه ها جستجوی گوگل ممانعت کند.

حتی خطاها جزئی ، مانند لینکهای مرده و خطاهای 404 ، می‌تواند Crawl Budget شما را محدود کند و بر حاصل جایگاه بندی شما تأثیر بگذارد. در نهایت ، اساسی می‌باشد که وبسایت خود را تا آنجا که ممکن میباشد خزش پذیر باشد. قابلیت و امکان خزش بیشتر ، روئت کرد بالاتر

چه چیزی میتواند بر قابلیت خزش وب سایت به وسیله کراولر ها تأثیر بگذارد؟

قابلیت و امکان خزش یا کراول پذیری تارنما شما به دست اندرکاران مختلفی بستگی دارد:

نقشه سایت: ساختار تارنما شما یک عنصر اصلی در گزینش قابلیت خزش می‌باشد. با یک نقشه تارنما XML و HTML که به نه سازماندهی شد‌ه‌است ، خزنده وب کارکشته خواهد بود وب سایت شما را جستجو کند و اطلاعات مورد نیاز برای فهرست بندی شما‌را پیدا کند. از طرف دیگر ، یک نقشه سایت ضعیف ، کار را برای خزنده مشقت بار می کند.

سرعت بار گذاری کاغذ: درست مثل بشر ها ، خزنده ها نمی خواهند  تا ابد طاقت کنند تا یک صفحه وب لود خواهد شد. آن‌ها صرفا مقدار “زمان خزیدن” یا دارایی خزش محدودی دارا‌هستند که می توانند قبل از انتقال به صفحه دیگر ، آن را در یک کاغذ صرف کنند. با سرعت لود کمتر ، تارنما شما بودجه خزش کمتری برای عمل دارد. در صورتیکه به دنبال ارتقاء سرعت وبسایت وردپرس می‌باشید نوشته‌علمی ما در این باره را بخوانید.

لینک های داخلی: یک لینک و پیوند داخلی یک پیوند دربین دو ورقه از محتوای وب سایت شما می باشد.

(به عنوان مثال ، در اینجا یک پیوند داخلی به ورقه مهم ما وجود داراست.)

خزنده های وب به دو دلیل لینک و پیوند های داخلی را دوست دارند. در صدر ، پیوند های داخلی به خزنده کمک می کنند تا صفحه ها بیشتری را در سایت شما پیدا کنند و به “میزان دارایی خزش” شما کمک کند. دوم ، در صورتی‌که لینک شما شامل یک کلمه و واژه کلیدی باشد ،سئو در مشهد  این واژه کلیدی به خزنده امداد می کند تا بفهمد کاغذ بعدی راجع به چه چیزی باشد ، خزیدن بیشتر محتوای شمارا برای آن شل تر می کند.

داشتن معماری سازگار وبسایت

سایت ها باید از یک طرح منظم و سازمان یافته استفاده کنند. با پیاده سازی نقشه های تارنما XML و HTML ، مرور وب سایت های خود را برای crawler های وب وارفته کنید.

کنترل کردن توان پیوندهای داخلی

برای به حداکثر رساندن ارزش پیوندهای داخلی از یک استراتژی بدون نقص لسنک داخلی به کار گیری نمایید. رایا پارس خلال این، همچنین باید احتمال خطاهای 404 را که باعث ساخت ضرر در قابلیت خزیدن وبسایت شما می شود ، کاهش دهید.

 ساده نگه داشتن سایت ها

به قالب های سازگار با گوشی که فرصت لود باصرفه شده را نماد می‌دهند، پایبند بمانید. با این شغل ، وبسایت های خود را ساده و پر سرعت می سازید و به خزنده ها اجازه می دهید تا آن‌ها را در حداقل فرصت اسکن کنند.

بار گذاری آراسته محتوای نو

خزنده ها دوست دارا‌هستند محتوای تازه و تازه را در یک سایت مشاهده کنند. با دادن چیز تازه به آن‌ها ،what is seo  کراولر ها را به تارنما های خود باز گردانید. درین فرایند می‌بینید که مرتبه بندی موتور جستجو به طور مداوم نو می‌گردد و بهبود می‌یابد.

امید واریم از تلاوت این نوشته‌ی علمی لذت برده باشید و با خزنده های وب آشنا شده باشید و تاثیر خزش پذیری تارنما بر بهینه سازی را دریافته باشید.

برهان نیاز به استراکچرد دیتا Structured Data

کدهای سایت شما با هر زبانی مندرج باشند، در مرورگر به html تبدیل میگردند. html دارای تگ‌هایی میباشد که هنگام ساخت سایت مقام هدر، فوتر، بادی، تصاویر، متن و غیره بوسیله‌ی آنها گزینش می‌گردد.فعلا از پرسش تعدادی سوال به جواب می‌رسیم:

– جناب گوگل بسیار زرنگ شده، اما همه‌ی نوشته‌ها، اعداد و غیره در تگ‌هایی مشابه به هم می‌باشند. موتور کاوش گر از کجا بفهمد که این شیت غذاهای ایرانی را معرفی کرده یا معرفی‌کننده‌ی یک رستوران است؟

– خزنده وارد تارنما شما می‌شود و تصاویری را یافت می‌کند. مسلما میدانید که همگی‌ی تصاویر در تگ‌های میباشند و تفاوتی ندارند. از کجا بفهمد که کدام تصویر اصلی‌تر میباشد و به عنوان مثال تصویر اساسی کالای شماست؟

– در میان عدد و رقم‌هایی که در صفحه‌ی محصول مذکور، از کجا متوجه گردد کدامیک بها اساسی کالاست و باقی اعداد مربوط به بعد ها و سایز و کد فرآورده هستند؟

Structured Data چیست
بهبود موقعیت بازدید و بازده هر وبسایت نیاز به تعامل دوطرفه میان تارنما و موتورهای کاوشگر دارااست. به عبارتی مجموع عملکرد مهندسین seo این میباشد که عمل را برای خزنده‌ها شل و ول‌تر کنند. به این شکل که زمانی crawler وارد وب سایت شما شد، سئو در مشهد به راحتی بفهمد که این شیت در زمینه‌ی چیست، تصویر شاخص آن کدام میباشد، در صورتی کالاست ارزش آن با کدام عدد تعیین شده و ابعاد محصول و نظرها آن در کجا درج گردیده است.

Structured Data در حقیقت نوعی ابزار نماد‌گذاری کدها برای دسته‌بندی و شناسایی عالی و دقیق‌تر صفحه ها، بوسیله موتورهای جستجو گر میباشد.

rich snippet

ریچ اسنیپت Rich Snippets چیست
بلافاصله بعد از آشنایی با استراکچرد دیتا بایستی با ریچ اسنیپت‌ها آشنا شوید. اسنیپت‌ها در حقیقت همان مقادیر و زیردسته‌هایی می‌باشند که به وسیله گونه های Structured Data تعیین می شود. از جمله نماد‌گذاری بها، امتیاز، نام کالا، گروه‌بندی جنس،رایا پارس  تالیف کننده‌ی متن و غیره کلیه بوسیله اسنیپت‌ها علامت‌گذاری می شوند و ساختار کلی استراکچرد دیتای تارنما را میسازند.

. Structured Data نگارش سایت را عالی می‌کند
استعمال از این سیسم موجب بهبود خوانایی تارنما شده و خزنده‌ها جزئیات دقیق‌تری از صفحات شما را ذخیره می‌کنند. در نهایت این اطلاعات مجموعه‌بندی شده به صورت بدون نقص‌تری به مخاطب آرم داده می‌شود و عده ای که در‌پی متاع یا خدمات شما هستند what is seo  به صورت هدفمندتری وب سایت شما را خواهند مشاهده کرد. هرچه یک وبسایت اعتبار بیشتری داشته باشد رفته‌رفته این جزئیات در حاصل جستجو بیشتر نمایش داده می شوند؛ به تصاویر پایین دقت فرمایید.

استفاده از Structured Data و معرفی شیت به عنوان شیت‌ی متاع:



استفاده از استراکچرد دیتایی که کاغذ را معرفی کننده‌ی یک مکان معرفی کرده.

استراکچر دیتا مکان

داده‌های ساختار یافته برای نمایش بها:

استراکچرد دیتا ارزش

جستجوگرهایی مثل گوگل چه نیازی به شناخت عالی صفحات ما دارا‌هستند؟
در حقیقت این گوگل نیست که به ما نیاز دارااست، ما هستیم که بایستی وب سایت‌مان را مثل هلو پوست بکنیم و در دهان جناب مستطاب گوگل بگذاریم تا وارفته‌تر آن را قورت دهد. مجموع این اقدامات برای این میباشد که وبسایت‌ها اعتبار بیشتری حصول کنند و در نمایش نتیجه ها جستجوها بالاتر آرم داده شوند. در‌صورتی‌که دارای دستیابی و کاری می باشید که ورودی گوگل هیچ اهمیتی برای شما ندارد، کدهای سایتتان را سنگین ‌تر نکنید و قید به کارگیری از استراکچرد دیتا را بزنید. از نگاه فنی هیچ اتفاق بدی برای شما نخواهد افتاد.

به چه شکل از Structured Data استفاده کنیم
استراکچرد دیتاها در حالت‌های مختلفی تمجید می شوند که به صورت تیتروار و خلاصه به آن می پردازیم:

میکرودیتا
این راه نشان‌گذاری در HTML5 کاربرد دارااست و کدهای html اضافه‌ای به کدهای شما افزوده میشود. درین طرز می‌بایست این آیتم‌ها را به کد خودتان اضافه فرمایید:
attribute و و .
بوسیله این کدهای اضافه می‌توانید نوع نشان‌گذاری مثل place، product، organization و یا مقدار پاس داده شده به آن مثل name، phone، price و غیره را مشخص و معلوم نمائید.

شیوه RDFa
این مدل از نماد‌گذاری نیز شبیه میکرودیتاست و کلمه ها انتخاب کننده لابلای کدهای html قرار می گیرند. RDFa کمتر از سایر نحوه‌ها مورد استفاده قرار گرفته و به ندرت می‌قدرت سایتی را یافت که از آن بهره کرده‌با‌شد.

JSON-LD
روش جیسون در حال حاضر بهترین نحوه آرم‌گذاری میباشد و گزینه استقبال تارنما‌ها و جستجوگرها قرار گرفته. در‌این‌شیوه از اسکریپت‌ها فایده می‌بریم و کل توضیحات و خصوصیات را در یک بلاک اسکریپت می گذاریم. به این شکل نشان‌گذاری‌ها از لابلای کدهای html خارج شده و کدهای تارنما شرایط منظم‌تری می گیرند.

بهترین روش درحال‌حاضر جیسون‌ال‌دی میباشد و مثال‌های بیشتر برای به کار گیری از این راه را می توانید در وبسایت schema.org پیدا فرمائید.

بروز حاصل بعداز به کار گیری‌ی Structured Data دارای دوبخش می‌باشد. در نصیب اول احتمالا تارنما شما و نمایش نتایج آن در جستجوها تغییری نمی‌کند، ولی گوگل به شما اعتبار بیشتری می‌دهد، سایت شما را عالی میشناسید و احتمال توسعه کردن بیشتر میگردد. پس شکیبا باشید و به ارتقاء قدرت تارنما‌تان ادامه دهید. این سیستم مثل یک آپشن اضافه خواهد بود که جمعاًًًَ موجب اقتدار‌گیری بیشترتان شود.
بخش دوم قابل مشاهده هست و می‌توانید ملاحظه کنید. در شرایطی که وب سایت شما اعتبار و جایگاه نه داشته باشد، در حاصل گوگل و برخی جستجوها به طور متفاوتی نمایش داده خواهید شد. اسنیپت‌ها کم‌نادر اثر می‌کنند و متمایز می شوید.

استراکچرد دیتا، گوگل و تارنما‌های فارسی
طبق مطالعه‌هایی که تاکنون داشته‌ایم و دست کم طبق مشاهدات ما، جزئیاتی که گوگل از Structured Data تارنما‌های فارسی استفاده می‌کند محدودتر از سایت‌های انگلیسی است. شاید این به دلیل فهم کمتر گوگل نسبت به لهجه فارسی باشد. به همین خاطر هنگامی عبارتی را به انگلیسی جستجو فرمائید، گوگل جزئیات و اطلاعات بیشتری را به شما نشان میدهد، هرچند که تاکنون در ارتباط لهجه فارسی توسعه‌های بخش اعظمی کرده و در آجل نیز شناسایی زبان مارا ادامه خواهد بخشید.

روش تحقیق کدهای Structured Data
اگر از استراکچرد دیتا در سایت‌تان استفاده کرده‌اید، قطعا کدهای نوشته شده را رسیدگی کنید. بخش اعظمی از مدیران وب سایت‌ها از وجود غلط در نماد‌گذاری وبسایت‌شان بی‌اطلاعند. برای این خواسته وارد برگه‌ی تست کننده‌ی گوگل شوید Structured Data Testing Tool و آدرس وب سایت یا ورقه‌ی متاع خود را وارد نمایید تا ریچ‌اسنیپت‌ها تحقیق شوند.
درصورتی که در نتایج نهایی خطاهای Error داشتید و با رنگ قرمز‌رنگ نمایش داده شد، این یعنی کدهای علامت‌گذاری شما درست تهیه و تنظیم نشده و می بایست آن ها را اصلاح نمایید. یا از نظر کدنویسی اشتباهی پیش آمده، یا در هنگام ورود اطلاعات به وب سایت، مقادیر ما یحتاج برای اسنیپت‌ها را پر نکرده‌اید.

به هیچ وجه چرا می بایست الگوریتم های گوگل را بشناسیم؟

یقین نمایید یا این که خیر
نه
خیر
 الگوریتم‌ های گوگل بسیار جالب میباشند. این الگوریتم‌ها بیش‌خیس از دو ده سال میباشد که وجود دارا هستند و در زمان همین سال‌ها تکامل یافته‌اند تا به ما کمک نمایند حاصل جست‌وجوی ظریف‌تری داشته باشیم. 
شاید کمتر پیش بیاید دو کلمه «جالب» و «الگوریتم» را در یک پاراگراف ملاحظه کنید. سئو در مشهد بیشتر به لحاظ می آید الگوریتم‌ها خسته‌کننده و حوصله‌سربر باشند. اما اینجانب به شما اعتقاد می‌دهم در انتهای این مقاله نظرتان تغییر و تحول خواهد کرد. 
اما بیایید پیش از کلام درباره جذابیت آنان ببینیم به هیچ عنوانً الگوریتم جستجوی گوگل چیست و چه گونه شغل می‌نماید.
الگوریتم گوگل چیست؟
الگوریتم‌ های گوگل فرآیندها و فرمول‌هایی میباشند که سوال شما‌را می گیرند و به جواب تبدیل می‌نمایند. آنها در میان تریلیون‌ها صفحه های اینترنت جست‌وجو کرده تا داده ها موردنظر شمارا بیابند. یک لحظه فکر کنید: تریلیون‌ها‌ یا این که به این شکل:
۱,۰۰۰,۰۰۰,۰۰۰,۰۰۰
ولی که عدد بالا صرفا یک تریلیون میباشد.
فکر کنید که الگوریتم های سرچ گوگل وجود نداشت و ما بدون چاره بودیم خودمان به نوعی این وسعت داده ها را فیلتر کنیم. در واقع این الگوریتم های جستجوی گوگل سیگنال‌های متفاوتی را از صفحه ها اینترنت با سرعتی غیرقابل تصور می‌خوانند و به درخواست جست‌وجوی شما جواب می دهند.رایا پارس  الگوریتم‌ های گوگل فقط به جست‌وجوی لغات در برگه قانع نمی شوند. آن‌ها همینطور می توانند بفهمند که محتوا چقدر جدید می‌باشد، چقدر احتمال داراست که هرز باشد و به چه شکل به جای شما مرتبط میشود.
تحت عنوان بازاریاب، کلیه این موارد برای شما مهم هستند. جای و جایگاه ورقه شما در گوگل میتواند ترافیک جستجوی ارگانیک را افزایش یا این که کم کند. بنابراین اصلی می باشد که بدانید الگوریتم های جستجوی گوگل به چه شکل شغل می‌نمایند و چه طور از دید پایبندی به خلق باصرفه‌سازی گردیده‌اند. علاوه بر این، تطبیق‌پذیر بدن بسیار مهم می باشد. الگوریتم های گوگل در طول این سال‌ها تغییرات متعددی کرده‌اند و همچنان در حال تغییر تحول هستند تا مخاطب‌پسندتر باشند.
به روزرسانی های الگوریتم های گوگل
در سال‌های نخستین صرفا تعداد انگشت‌شماری به‌روزرسانی در الگوریتم های سرچ گوگل ایجاد کرد می‌شد. ولی موقتی هر سال الگوریتم های نو گوگل همدم با هزاران تغییر اعمال می شوند. اکثر این تغییرات آن‌قدر جزئی می باشند که به هیچ وجهً چشم نمی شوند. با این اینک بعضی وقتها گوگل به‌روز‌رسانی های الگوریتمی بزرگی را ارائه می‌دهد که به روش قابل‌توجهی بر صفحاتی که در حاصل جست‌وجو بالا میایند تأثیر می گذارد.
در پی سوای این‌که در دریای اصطلاحات سرگردان‌کننده بهینه سازی غرق شویم،what is seo  از مهم‌ترین الگوریتم های گوگل، خطرات و کارکرد آنان خوا هیم بیان کرد. هم‌اینگونه توضیح خوا‌هیم داد که چه کارهایی برای خوب شدن رتبه‌ اینترنت‌وبسایت خویش در گوگل می توانیم اجرا دهیم.
۱- پاندا
تاریخ به‌روزرسانی: ۲۴ فوریه ۲۰۱۱
خطرات: محتوای تکراری، محتوای دزدی که اصطلاحاً به آن محتوای نازک می گویند، هرزنامه‌هایی که بوسیله بشر تشکیل داد گردیده‌اند و بمباران لغت ها کلیدی.
چه طور شغل می‌نماید؟ از الگوریتم های سرچ گوگل پاندا به اصطلاح «امتیاز کیفی» را به اینترنت‌وب سایت شما میدهد. بعد از این امتیاز تحت عنوان عاملی در مرتبه‎بندی گوگل به کارگیری میشود. در صدر الگوریتم پاندا چندان تأثیرگذار نبود؛ ولی در ژانویه ۲۰۱۶ به صورت دایم در الگوریتم های گوگل گنجانده شد. از آن فرصت، اینترنت‌تارنما‌ها به‌روزرسانی‌های بیشتری اجرا می دهند. براین اساس هم جریمه‌های الگوریتم پاندا و هم رهایی از آن سریع‌خیس حادثه می‌ افتد.
چه کنیم؟ اینترنت‌وبسایت خویش را برای محتوای تکراری، محتوای نازک و بمباران کلمه ها کلیدی منظم رسیدگی فرمایید. میتوانید این کار را بوسیله یک خزنده اینترنت‌سایت جاری ساختن دهید.
۲- پنگوئن
تاریخ به‌روزرسانی: ۲۴ آوریل ۲۰۱۲
مخاطرات: پیوند‌های اسپم یا این که نامربوط، لینک‌هایی با انکرتکست‌های (Anchor Text) بیش از حد با صرفه گردیده. انکرتکست‌ها به عبارتی کلمات معمولاً آبی رنگی می‌باشند که زیرشان خط کشیده شده است. هایپرلینک‌ها با انکرتکست‌ها درست شده و برای پیوند دادن به جای دیگری در وب استفاده می شوند. در صورتی بیش از حد از عبارات کلیدی در انکرتکست‌ها استفاده فرمایید در الگوریتم های گوگل پنگوئن میباشد که مچ شمارا می گیرد.
چه‌طور شغل می‌نماید؟ مقصود الگوریتم پنگوئن ذیل آوردن رتبه تارنما‌هایی است که بک لینک یا این که لینک و پیوند‌سازی آن‌ها غیرطبیعی به حیث می رسد.
چه کنیم؟ برای در نگهبانی ماندن از پنگوئن، حواستان به زیاد شدن لینک و پیوند‌های داخلی در اینترنت‌سایتتان باشد. میتوانید با یک پژوهش‌کننده بک‌پیوند‌ها این مطالعه‌های منظم را جاری ساختن دهید.
۳- مرغ مگس خوار
تاریخ به‌روزرسانی: ۲۲ آگوست ۲۰۱۳
مخاطرات: بمباران کلمات کلیدی، محتوای بی‌چگونگی
چه‌گونه عمل می‌نماید؟ میان الگوریتم های گوگل این مرغ مگس خوار میباشد که به گوگل یاری می‌نماید تا سوال مورد جست‌وجو را عالی تعبیر و تفسیر نماید و نتایجی را ارائه دهد که با مقصود جست‌وجوگر بیشتر مطابقت داشته باشد. الگوریتم مرغ مگس‌خوار این قابلیت را برای یک شیت ساخت می‌نماید که حتی در‌صورتی‌که دقیقاً دربردارنده به عبارتی کلمات کلیدی جست‌وجوگر نباشد همچنان مرتبه بگیرد و بالا بیاید. این دستور با پردازش زبان‌های طبیعی برای یافتن معانی مخفی، اصطلاحات و هم معنی‌های کلمات به دست می آید.
چه کنیم؟ درباره‌ی لغت ها کلیدی خویش بیشتر جست‌وجو فرمائید و بر مفاهیم پشت کلمات کلیدی تمرکز نمائید. با تمرکز جست‌وجوهای مرتبط، مترادف‌ها و اصطلاحات شبیه را تجزیه و محاسبه نمایید. شایسته ترین منابع شما جست‌وجوهای مرتبط، سؤالات مرتبط و همینطور پیشنهادات اتوماتیک جانور در نوار جستجوی گوگل هستند.
۴- موبایل
تاریخ به‌روزرسانی: ۲۱ آوریل ۲۰۱۵
خطرات: عدم وجود ورژن موبایلی صفحه یا این که ورژن موبایلی بسیار ضعیف.
چگونه عمل می‌نماید: این الگوریتم و به‌روزرسانی‌های آنگاه تمرکز را از ورژن دسکتاپ به ورژن موبایل اینترنت‌سایت شما تغییر و تحول داده است. امروزه الگوریتم های گوگل همگی اینترنت‌سایت‌ها را مطابق سرعت و کاربرپسند بودن ورژن موبایلی آن‌ها نیز مرتبه‌بندی می‌نماید.
چه کنیم؟ صفحه های خویش را برای جست‌وجو در تلفن همراه با صرفه فرمایید و روی سرعت و قابلیت و امکان به کار گیری از آن تمرکز فرمایید. آزمایش‌های گوشی فرندلی (Mobile-Friendly) گوگل و اندازه‌گیری سرعت صفحه به شما امداد می‌نماید متوجه گردید کدام جنبه‌های برگه شما باید بهبود بیابد.
۵- رنک برین (RankBrain)
تاریخ به‌روزرسانی: ۲۶ اکتبر ۲۰۱۵
مخاطرات: خلا رابطه معین با سوال، محتوای سطحی، رابط کاربری ضعیف
چه‌گونه عمل می‌نماید؟ این الگوریتم بخشی از الگوریتم مرغ مگس خوار می باشد. رنک‌برین یکی از الگوریتم های گوگل هست که توسط یک سیستم یادگیری ماشینی به گوگل امداد می‌نماید تا معنای پشت هر سؤال را بفهمد و شایسته ترین نتایج را در جواب به آن سؤال ارائه دهد. گوگل، رنک‌برین را سومین فاکتور اصلی در مرتبه بندی می‌نامد. در حالی که حقیقت این می باشد که ما به هیچ وجهٌ فرمول ظریف پشت این به‌روزرسانی والا را نمی‌دانیم. حادثه نظر بر این میباشد که رنک‌برین مسئول سفارشی کردن نتایج جستجوی گوگل برای مخاطب میباشد. با این الگوریتم گوگل بالاتر از سؤال مورد جست‌وجوی شخص می‌رود و مورد ها دیگری از جمله مترادف‌ها، عبارات ضمنی و تاریخچه جست‌وجوی فردی هر شخص را در لحاظ می گیرد.
چه کنیم؟ با کمک ابزار تجزیه و محاسبه رقابتی، صفحه های خویش بهینه نمائید. این‌سیرتکامل میتوانید لیست جامعی از اصطلاحات و مفاهیم مرتبط را که توسط تعداد متعددی از رقبای رفیعتر خویش به کارگیری میشوند، کشف نمایید. بعد از آن راهی برای افزودن این لغات به محتوای خویش پیدا فرمائید. خواهید مشاهده کرد که بازدید از صفحه های شما به نحوه دیده‌گیری ارتقاء می‌یابد.
۶- برت (BERT)
تاریخ به‌روزرسانی: ۲۲ اکتبر ۲۰۱۹
مخاطرات: محتوای ضعیف از نظر نوشتاری، سوای تمرکز، سوای کانتکست
کانتکست در واقع متن گزینه دور و بر محتوای اساسی می‌باشد که به درک خوب آن امداد می‌نماید.
چه طور شغل می‌نماید؟ برت یک کدام از از سایر از الگوریتم های گوگل هست که از رشته‌آوری پردازش لهجه‌های طبیعی برای شعور بهتر عبارت‌های گزینه کاوش، تعبیروتفسیر متن‌ها، تشخیص کلمه ها و روابط در بین لغات به کارگیری می‌نماید.
چه کنیم؟ سرانجام روزی آمد که گوگل حقیقتاً به خوب تایپ کردن قیمت اعطا کرد. برای تایپ کردن یک اسکن اصولی و معنادار کوشش فرمائید. این به‌این مضمون‌ میباشد که محتوایی که می‌نویسید گزینه یا این که کانتکست داشته باشد. از حروف ربط به درستی به کارگیری فرمایید و بیشتر به مدل توضیحی بنویسید.
۷- به روزرسانی اساسی
تاریخ به‌روزرسانی: سال ۲۰۱۷ تاکنون
به چه شکل شغل می‌نماید؟ از سال ۲۰۱۷ به‌ بعد از آن الگوریتم های نو گوگل تحت عنوان به‌روزرسانی‌های اصلی معرفی گردیده‌اند. از آن فرصت، حتی شفافیت کمتری در زمینه ی این‌که‌این به‌روزرسانی‌ها چیست و کدام نصیب از جست‌وجو را بهبود می بخشد وجود داراست. این احتمال وجود داراست که‌این به‌روزرسانی‌ها صرفا توسعه و گسترش‌هایی جزئی در به‌روزرسانی‌های پیشین الگوریتم های گوگل باشد.
چه کنیم؟ از آنجایی که اثرات به‌روزرسانی‌های الگوریتم های جستجوی گوگل اکثر اوقات ناشناخته می باشند، یک کدام از کارهایی که میتوانید جاری ساختن دهید این هست که تاریخچه نتیجه ها موتور جست‌وجو را برای لغات کلیدی متبوع خویش ردیابی فرمایید. بعداز اعمال به‌روزرسانی میتوانید تفحص نمائید که کدام یک از رقبای شما در رتبه‌بندی بالا یا این که پایین رفته‌اند و در امر عامل ها مؤثر پیش گویی بزنید. میتوانید از ابزار رنک ترکر (Rank Tracker) استعمال فرمائید و حاصل به دست آمده را تجزیه و تفحص فرمایید.
۸- کبوتر
گلشن‌وحش الگوریتم های گوگل
اما که گلشن‌وحش گوگل هنوز! نیست. اما به جز پاندا، پنگوئن و مرغ مگس‌خوار که در بالا اشاره شد الگوریتم دیگری با اسم یک حیوان در الگوریتم های گوگل وجود دارااست: الگوریتم کبوتر.
خطرها: برخلاف پاندا و پنگوئن، الگوریتم کبوتر یک به‌روزرسانی مطابق جریمه وجود ندارد.
چه گونه شغل می‌نماید؟ دربین الگوریتم های گوگل تمرکز الگوریتم کبوتر بر محلی بودن نتایج جست‌وجو میباشد. کبوتر با حدس حالت مکانی کاربر حاصل جست‌وجو و نقشه گوگل را پایین تأثیر قرار میدهد. الگوریتم کبوتر یک امتیاز آشکار برای استحصال‌وکارهای محلی می‌باشد که در پی جذب مشتریان از بخشها فضا خویش میباشند.
چه کنیم؟ با استفاده از عبارات کلیدی مطابق جای شما میتوانید از الگوریتم کبوتر به عایدی خویش به کار گیری فرمائید. علاوه بر این می توانید محل استخراج‌وکارتان را در نقشه گوگل علامت‌ کنید و این نقشه را در بخش رابطه با ما در وب سایت خویش اضافه فرمائید.
صحبت نهایی
در‌این مقاله به الگوریتم های دیدنی گوگل و کارکرد آن‌ها پرداختیم و نکاتی که هنگام بهینه سازی می بایست در لحاظ بگیریم. اما در واقع فقط کاری که شما بایستی جاری ساختن بدهید این می باشد که تنهاً جهت استحصال رتبه بهتر برای یک کلمه کلیدی خاص کارایی نکنید. محتوایی ساخت فرمائید که به نیاز یوزرها جواب می‌دهد. در واقع هدف گوگل از این الگوریتم‌ها تشویق مدیران اینترنت و بازاریابان به انتشار محتوایی می‌باشد که در نوع خویش شایسته ترین باشد. در‌صورتی‌که محتوایی تولید می‌کنید که به سؤالات عموم جواب میدهد، با‌یقین در مسیر صدق قرار گرفته‌اید.

آیا سؤالات بیشتری در امر الگوریتم های جستجوی گوگل دارید؟ خرسند می‌شویم که در قسمت اظهار نظر به آنها بپردازیم. همینطور در شرایطی‌که تا کنون توسط گوگل جریمه گردیده‌اید درانتظار قرائت تجارب شما هستیم.

شایسته ترین طرز‌ های ارتقا بازدید وب سایت در گوگل

آنهایی که وبسایت یا این که فروشگاه آنلاین دارا‌هستند، خوب می دانند که هر چه می توانند بایستی تلاش کنند تا از دیروز و ماه قبلی ترافیک بیشتری برای وب سایت‌شان بگیرند. درین نوشته ی علمی در خصوص شایسته ترین طرز‌های افزایش بازدید تارنما برای شما خوا هیم بیان کرد. محتوای جالب و اختصاصی اخلاق و رفتار می‌کنید یا این که تولید ها نو و جذابی را به فروشگاه‌تان اضافه کرده‌اید و موقتا صرفا چیزی که نیاز دارید این میباشد که چطور بازدیدکنندگان به سمت وب سایت و فروشگاه اینترنتی شما روان شوند و بتوانید بیشترین ترافیک را برای‌ تارنما‌ خویش جذب کنید؟

این نوشته‌علمی برای شماست! درین نوشته‌علمی از یکتانت میخواهیم شما‌را با شایسته ترین نحوه‌های افزایش بازدید تارنما در سال 2020 آشنا کنیم تا ملاحظه کنید چطور شیوه‌هایی زیرا به کار گیری از کانال‌های اجتماعی یا این که هک‌های بازاریابی غیرسنتی می توانند ترافیک اینترنت‌سایت شمارا ارتقا دهند. علاوه بر اینکه به شما می‌گوییم اشخاص حرفه‌ای برای ارتقا بازدید تارنما به طور حقیقی وواقعی چه فعالیت می‌نمایند. از طرف دیگر سراغ ابزارهای متفاوت مطالعه ترافیک اینترنت‌وبسایت، راه‌های ارتقا بازدید تارنما در گوگل، ارتقاء بازدید جستجوی گوگل به طور ارگانیک و… خوا هیم رفت.

نحوه افزایش بازدید وبسایت به طور بدون پول

چنانچه درپی بالا بردن بازدید تارنما در گوگل میباشید و به این اندیشه‌می‌کنید‌ که چه طور بازدید سایت را افزایش دهیم، بایستی بگوییم که در حالتی‌که بتوانید روش‌های ذیل را به صدق پیاده‌سازی نمائید، آنگاه نتیجه ها شگفت‌انگیری انتظار شما را میکشد.

1- بهینه‌سازی اینترنت‌وبسایت برای موتورهای کاوش (بهینه سازی)

در به عبارتی استارت کار برای بالا بردن بازدید وبسایت، بایستی تمرکزتان روی پیدا کردن لغت ها کلیدی باشد که علامت‌دهنده محتوای وب لاگ شماست. معمولا تمرکز شما بایستی روی انتخاب یک یا این که دو کلمه و واژه کلیدی برای هر یک از صفحات اینترنت‌وب سایت‌تان باشد. خلال اینکه می‌توانید از ابزارهای seo و ابزارهای پیداکردن کلمه ها کلیدی برای کشف کردن لغت ها مرتبط کمک بگیرید.

در بالا روی لغت ها کلیدی متمرکز گردید که وسعت جستجوی آن ها کمتر از 10 هزار کاوش در ماه باشد. بعد از اینکه تعدادی ماه از فعال سازی وبلاگ‌تان سپری شد و صفحه ها جنس خویش را با صرفه‌سازی کردید، میتوانید روی لغات کلیدی متمرکز گردید که وسعت جستجوی بیشتری دارا هستند.

ترفند اساسی برای افزایش بازدید تارنما درین قسمت این هست که اول بتوانید پی‌ریزی قدرتمندی از لغت ها کلیدی مرتبط داشته باشید. نکته حائض اهمیت دیگر این میباشد که می بایست تا می توانید از مزایا و گنجایش‌های بلاگ خویش در فروشگاه اینترنتی‌تان سود ببرید؛ سئو در مشهد  چراکه روی ارتقاء بازدید جستجوی گوگل به طور ارگانیک اثر خیلی متعددی دارااست.

2- نو‌سازی محتوا

جدید‌سازی محتوا یکی از طریق‌های هک seo می‌باشد که خیلی‌ها برای بالا بردن بازدید سایت از آن به کار گیری می‌نمایند. در اصل در‌این شیوه باید محتوای قدیمی و منقضی‌گردیده را از صفحه ها سایت خویش حذف فرمائید و به مکان آن بخش‌های جدید با محتوای مرتبط داشته باشید.

بی آلایش‌ترین عمل برای جدید‌سازی محتوای کاغذ تولیدات این میباشد که از یوزرها بخواهید دیدگاه ها یا این که عیب گیری و مطالعه‌های خویش از تولید ها را در بخش نظر ها بنویسند. در‌این‌صورت‌‌ گوگل نظردهی یوزرها را یک فعالیت مداوم و تحت عنوان محتوای جدید تشخیص میدهد. خلال اینکه میتوانید با نشر مستمر و مستمر واکنش یوزرها و خریداران، محتوای صفحه ها خویش را تازه نگه‌دارید.

3- معرفی وب سایت به موتورهای کاوش

یکی از‌از دیگر از آیتم‌هایی که برای ارتقاء بازدید وبسایت و seo موثر خواهد بود، درخواست از موتورهای کاوش برای خزش و ایندکس کردن وب سایت شماست تا بتوانید در ورودی‌های مربوط به وب سایت‌ خویش در گوگل درجه بگیرید.

4- ایجاد بک ‌پیوند

بک لینک و پیوند‌ها نصیب مهم دیگری از بهینه سازی میباشند که می‌توانند در ابتدا بردن بازدید وبسایت شما نقشی اصلی اجرا نمایند.رایا پارس  هنگامی که یک سایت دیگر به تارنما شما لینک و پیوند می‌دهد، سیگنال‌هایی به گوگل می‌رسد که آرم از باارزش بودن سایت شما دارد و میگوید تارنما شما با لغت ها کلیدی که روی آنها لینک و پیوند گردیده مرتبط می باشد.

علاوه بر این بک لینک‌ها می توانند ترافیک متعددی را به سمت فروشگاه آنلاین شما جاری نمایند. یوزرها با کلیک کردن روی لینک و پیوند موردنظر به تارنما و فروشگاه شما می‌رسند و احتمالا نقطه پایان این مسیر سبب به خرید میشود.

برای دریافت کردن بک لینک به طبع نیازی وجود ندارد هزینه نمایید و امکان اخذ بک لینک و پیوند به طور رایگان از منابع متفاوت وجود و می بایست این عمل را به طور اصولی ایفا دهید.

5- دیده از رقبا برندارید

به حساب آوردن رقبا یکی مهمترین روش‌هایی می باشد که برای ارتقا بازدید وبسایت خویش باید اعمال دهید. بایستی عملکرد فرمائید بفهمید منابع اصلی ترافیک دریافتی رقبا از کجاست و مخاطبان آن بیشتر در کدام شبکه‌های بازاریابی قرار دارا‌هستند.

یک کدام از معمولی‌ترین کارهایی که می توانید جاری ساختن دهید این هست که وب سایت رقبا را در ابزار الکسا وارد نمائید و به بخش Upstream Sites بروید تا ملاحظه کنید کدام وب سایت‌ها پیش از شیت فرودِ وبسایت رقبا بازدید گردیده‌اند.

در‌حالتی که دیدید گوگل در صدر این فهرست بود متوجه می‌شوید که از تبلیغات گوگل ادز و seo به کارگیری کرده‌اند. what is seoدر حالتی‌که فیسبوک یا این که پلتفرم‌های دیگر منبع ترافیک ورودی رقبا بودند، بایستی سراغ تبلیغات در‌این بسترها بروید. یا این که در صورتیکه دیدید بیشترین ترافیک ورودی از سمت یکی از بلاگ‌های فعال در این حوزه بوده‌ است، شما نیز بایستی استراتژی خویش را روی همیاری با اینگونه وب لاگ‌هایی معطوف نمایید.

بازرسی رقبا

6- با صرفه‌سازی محتوای سایت براساس عبارات کلیدی طولانی

با اینکه ممکن می‌باشد هنگام مطالعه کلمات کلیدی به کلمات کوتاه برسیم و بخواهیم روی آن ها کار کنیم، ولی نباید از کلمه ها کلیدی بلند (Long Tail Keywords) نیز غافل شویم. این عبارات خاص می توانند ورودی نه برای ما داشته باشند و در ابتدا بردن بازدید وبسایت امداد نمایند.

از آنجایی که‌این کلمات خاص می باشند شانس بیشتری برای درجه‌دریافت کردن دارا‌هستند؛ چرا که هنوز رقبای متعددی سمت آنان نرفته‌اند. خیر‌صرفا رتبه به چنگ آوردن در کلمه ها کلیدی بلند و مرتبط ساده‌خیس است، بلکه قابلیت حدس‌زدن قصد جستجوکننده نیز وارفته‌خیس خواهد بود.

وقتی که تجربیات کاربری تارنما خویش را متناسب با قصد جستجوکننده ایجاد کرد می‌کنید، پس محتوای شما هم بیشتر متناسب با چیزی می باشد که وی دنبالش می‌شود. این‌راه در ارتقا بازدید جستجوی گوگل به طور ارگانیک از سوی گروهی از یوزرها غرض خیلی عالی پاسخ می دهد.

7- افزودن محتوا یا این که متاع روی وب سایت به طور روزمره

از آنجایی که یکی از کارداران اساسی گوگل برای سکو‌بندی میزان نو‌بودن محتواست، بدین ترتیب به‌روزرسانی دائمی محتوای تارنما به طور روزمره میتواند خیلی اثرگذار باشد. این شغل خیر‌تنها برای seo خیلی عالی هست، بلکه دلیلی برای برگشت و بازدید مجدد یوزرها از تارنما خواهد بود. در صورتی آن ها بدانند که هر روز چیز جدیدی بری کشف کردن در وب سایت شما وجود داراست، بیشتر ترغیب میشوند که هر روز به وبسایت‌تان سر بزنند.

8- تکثیر محتوای مخصوص روی وب سایت

راه و روش‌اندزای وب لاگ، برگزاری بعد از ظهر مجانی، تکثیر پوشه‌های ارائه، برگزاری وبینار و تکثیر دیگر محتوای مرتبط در سایت کمک متعددی به شما خواهد کرد. اگر بتوانید طبق برنامه پیش بروید و محتوای خویش را به طور منحصر منتشر فرمائید، یوزرها دلیلی برای رجوع به وب سایت شما خواهند داشت.

9- برگزاری امتحان و نشر نتایج

امتحان‌ها یک کدام از موثرترین ابزارهای تشکیل داد سرنخ هستند که در آمیخته بازاریابی محتوایی خیلی کاربرد دارا‌هستند. نرخ تبدیل امتحان‌ها و مسابقات سوال و جواب بسیار بالاست و خیر‌فقط میتوانید از نشانی اینترنتی‌های به دست آمده برای پست الکترونیک مارکتینگ به کار گیری کنید، بلکه داده ها نه از پاسخ‌های یوزرها به دست می آید.

البته در‌صورتی‌که بخواهیم در مورد ارتقاء بازدید سایت سخن کنیم، باید بگوییم یوزرها خیر‌صرفا زمان خیر برای کمپانی در امتحان متبوع صرف می‌نمایند، بلکه حاصل را از روش کانال‌های اجتماعی یا این که هر پلتفرم دیگری به اشتراک می‌گذارند و سبب می شوند بازدید وب سایت شما ارتقاء پیدا نماید.

10- سراغ پادکست بروید

این روزها بازار پادکست در ایران نیز خیلی بهتر از قبلی گردیده‌است و شاهد پادکست‌های حرفه ای و جذابی هستم. پادکست‌ها می‌توانند مخاطبان متعددی داشته باشند و در منفعت این مخاطبان برای هواخواهی از شما و شنیدن پادکست‌های‌تان به طور ناخودآگاه بازدید وب سایت شما‌را بالا می برند.

( Crawl Budget ) در بهینه سازی چه مفهومی دارد؟

به عبارتی‌طور که گفتیم میزان دارایی خزش تعداد صفحاتی است که گوگل تصمیم میگیرد در یک زمانه مشخص وبسایت شما‌را مرور می نماید که‌این میزان می تواند، مختلف باشد البته به صورت کلی یک مقدار استوار است.

تعداد صفحاتی که گوگل آن‌ها‌را مرور می نماید محدودیتی ندارد یعنی ممکن هست 6 کاغذ از وبسایت در روز مرور خواهد شد یا این که 400,000 . پس مجموعاَ با دقت به معیارهایی این ترازو تعیین می‌گردد که بعدا راجب آن حرف می کنیم.

چرا موتورهای کاوش دارایی خزش را برای تارنما ها در حیث گرفتند
با اعتنا به اینکه میلیون‌ها برگه نو روزمره به وبسایت ها اضافه میشود و تعداد آن ها محدودیتی ندارند. براین اساس ایندکس صفحه های نیاز به حق تقدم‌بندی داراست تا ربات های گوگل بتوانند این کار را جاری ساختن دهند.

واحد سنجش دارایی خزش برای تارنما چطور انتخاب می‌گردد
دو عامل وجود دارااست تا معیار میزان دارایی خزش صفحه ها گزینش شوند، محدودیت خزش  (Crawl Limit ) و تقاضای خزیدن ( Crawl Demand ) ، که در نصیب تحت به تشریح هر کدام می‌پردازیم.

محدودیت خزش مبتنی بر منابع سرور (Crawl Limit / Host Load )
حد خزیدن قسمت مهمی از بودجه خزش محسوب می‌شود. به همین خواسته ربات های گوگل به نحوی پیاده سازی شدند تا از اضافه توشه سرور جلوگیری نمایند و با احتیاط بیشتری صفحه های اینترنت را مرورکنند.

حالا عوامل مختلفی روی حد خزیدن مفید میباشد مثلاً در صورتی وب سایت شما با یک سری وبسایت دیگر روی یک سرور مشترک انجام گردیده باشد و شما یک وبسایت والا در اختیار داشته باشید، خزش در سایت بسیار محصور انجام می‌شود. دراین‌صورت‌ بهتر است از یک هاست اختصاصی استفاده نمایید تا احتمال اینگونه محدودیتی برای تارنما شما اتفاق نیفتد.

عامل دیگری که بر واحد سنجش خزش اثر میگذارد، تعداد وبسایت های فعالی میباشد که بر روی یک هاست دارید. در این صورت وصل شدن به سرور مشقت بار می‌گردد و قابلیت خطای رجوع و برگشت از سرور را خواهیم داشت.

در شرایط کلی بایستی در حیث بگیرید که سرور شما چقدر میتواند تعداد درخواست های نبی گردیده سمت سرور را جواب گو باشد و چقدر تحمل ترازو خزش را دارااست.

تقاضای خزیدن  ( Crawl Demand / Crawl Scheduling )
تقاضای خزیدن یا این که طراحی برنامه خزیدن مبتنی بر بها URL می باشد که قادر است عامل ها اکثری را در خویش وارد نماید به عنوان مثال :

محبوبیت : معیار لینک و پیوند های داخلی و فرنگی که در صفحه های خویش قرار می دهید، همینطور میزان کاوش برای رتبه بندی اثر متعددی داراست.
نوع برگه : صفحه های یک وب سایت میتواند در مجموعه بندی تولید ها، برگه مقررات ومقررات ، تماس با ما و غیره باشد. پس مطابق نوع کاغذ واهمیت آنان، حق اولویت خزیدن باید صورت پذیرد.
تازگی ( ساخت و ساز موردها جدیدتر) : به‌روزرسانی ، تشکیل داد محتوای جدید هم در تقاضای خزش تأثیر متعددی دارا‌هستند.
برای مثالً تارنما هایی که هر روز محتوای تازه در تارنما خویش قرار میدهند، نسبت به سایت های خبری که هر یکسری ساعت یک توشه محتوا ایجاد کرد می نمایند تعداد خزش کمتری به نسبت تکثیر محتوا دارند.

چرا می بایست به میزان دارایی خزش تارنما خویش التفات بدهیم
ما در پی این هستیم که موتورهای کاوش بیشترین صفحه ها ما را ایندکس و مرور نمایند و ولی در اسرع وقت این فعالیت را جاری ساختن بدهند. التفات دارایی خزش هنگامی اساسی می گردد که بایستی صفحات نو تارنما شما سریع خیس توسط موتورهای کاوش مرور شوند.

اینک در حیث بگیرید که دارایی خزش خویش را از دست دادید و موتورهای کاوش نتوانستند قسمت های اساسی وبسایت را کشف نمایند. با مجموع سعی هایی که برای وبسایت خویش اعمال دادید نتوانستید رتبه خیر در نتایج گوگل بگیرید.

در‌این‌حالت‌ باید برای موتورهای کاوش گزینش نمایید که کدام صفحه ها التفات بیشتری دارا هستند بخصوص در حالتی‌که صفحات وب سایت بیش تر از 10,000 ورقه میباشد.

چطور میزان دارایی خزش وبسایت خودم را پیدا کنم
اگر برای تارنما خویش حساب کنسول گوگل دارید می توانید به بخش Crawl بروید وبر Crawl Stats کلیک فرمائید. در آنجا تعداد صفحاتی که گوگل آنان‌را هر روز مرور می نماید را مشاهده کنییید


به منابع سرور خویش رجوع‌نمایید
مطالعه گزارش های سرور می تواند داده های جذاب را مهیا نماید و تعداد خزنده های گوگل که سایت شمارا مرور می نمایند را نماد دهد.

که اما میتوانید این اطلاعات را با داده هایی که از کنسول گوگل خویش بدست آوردید سئو در مشهد مقایسه نمائید و به حساب آوردن های بیشتری را برای یافتن شایسته ترین راه‌حل کسب مرتبه ای فراتر را داشته باشید.

بهینه سازی دارایی خزش را چطور انجام دهیم
بهینه سازی میزان دارایی خزش رویه های متعددی دارااست ولی در اینجا 8 گزینه اساسی را عده کردیم که بایستی به آن ها توجه کنید و موردها نام برده را رفع نمائید.

1. پارامترهای غربال محصولات در URL
URL های با پارامتر نباید برای موتورهای کاوش قابل دسترس باشند زیرا می توانند تعداد نامحدودی URL ساخت نمایند.رایا پارس  این نشانی ها معمولاً هنگام استعمال از غربال های متاع در فروشگاه آنلاین استعمال میشوند  مثلا https://www.example.com/cars/bmw?color=white در اینجا بایدمطمئن گردید در دسترس موتور های گوگل نباشد.

برای اجرا این شغل بایستی در سرچ کنسول گوگل یا این که ابزار اینترنت مستر بینگ به کار گیری فرمایید ، تگ Nofollow  به پیوند های غربال اضافه نمائید یا این که در Robots.txt فرمان عدم دسترسی به این نشانی را بدهید.

2. محتوای تکراری
شیوه های متعددی برای هجران از محتوای تکراری میباشد، برای مثالً هنگامی که می‌خواهیم نشانی ورقه ای را وارد کنیم به HTTP ، HTTPS وWWW پیوند ها دقت کنیم. صفحه های نتیجه ها کاوش داخلی در Robot.txt غیر قابل دسترسی کنیم و موارد دیگر که میتواند میزان دارایی خزش را بهینه سازی می نماید می بایست صورت بپذیرد.

3. محتوا باکیفیت زیر
خوب میباشد تلاش کنیم محتوایی کیفیت خوب تحت را به دست کم برسانیم یا این که در شکل قابلیت اینگونه محتوایی ایجاد کرد نکنیم. این صفحه ها برای موتورهای کاوش اصلا دیدنی وجود ندارد، به احتمال بالایی مرور نمیشود.

4. لینک و پیوند های شکسته 404 و ریدایرکت طولانی
لینک های شکسته 404 و ریدایرکت زمانبر منجر می گردند که ربات های کاوش کرول خویش را جدا نمایند. گوگل مانند مرورگرها حداکثر تا 5 تغییر تحول مسیر را در یک خزیدن دنبال می نمایند که اما ممکن میباشد مجدد خزیدن را انجام دهند.

با این فعلا توصیه می کنیم از تغییر تحول مسیر های زنجیره ای کاملا دوری کنید و به کار گیری از ریدارکت ها را به دست‌کم برسانید.

5. نشانی URL های غلط را در فایل نقشه سایت  خویش قرار ندهید
همه نشانی هایی که در فایل XML وبسایت قرار می دهید بایستی فهرست بندی باشند، در واقعیت موتورهای کاوش به شدت به نقشه های XML توکل می نمایند تا تک تک صفحات شما‌را پیدا نمایند.

در شرایطی‌که نقشه تارنما مشمول صفحاتی که وجود ندارند یا این که ریدایرکت باشد، بودجه خزش شما هدر می رود بایستی نشانی های ایندکس نشده خویش را بازرسی نمایید.

به چه شکل گزارش های نقشه وب سایت را در سرچ کنسول پیدا کنیم؟

وارد حساب سرچ کنسول گوگل گردید
روی زبانه Crawl کلیک نمائید
در پایان روی زبانه Sitemaps کلیک نمایید

یکی از راه‌های دیگر که میتوانید دارایی خزش خویش را seo فرمایید تقسیم نقشه تارنما XML می باشد. برای مثال می‌توانید برای هرمورد از قسمت های وبسایت، نقشه XML مستقل ایجاد کنید.

با این عمل در‌حالتی که نصیب A وب سایت 500 لینک و پیوند داشته باشد و 480 ایندکس گردیده میتوانید مطمئن باشید که موتورهای کاوش به خیر و خوبی وب سایت شما‌را مرور می نمایند. در‌صورتی‌که در نصیب  B وب سایت از میان این 500 پیوند تنها 120 آن ها ایندکس خواهد شد می بایست به‌این قضیه اعتنا فرمائید چه پیوند هایی در‌این قسمت وجود دارااست و چقدر در seo تارنما مداقه داراست.

در صورتی که اهمیت چندانی ندارد به بهینه سازی دارایی خزش قسمت های دیگر بپردازید.

6. صفحات با سرعت بار گذاری زیر
وقتی که صفحه ها توشه زیاد دارند یا این که در حین وقت گیر بار گذاری می‌شوند، موتورهای کاوش کمتر میتوانند این صفحه ها را مرور نمایند. پس در‌حالتی که فرصت بارگذاری وب سایت فراتر از 2 ثانیه میباشد باید به کمک ابزار هایی مثل Pingdom ، WebPageTest یا این که GTmetrix تحقیق شوند.

یک وب سایت می بایست مرتباً سرعت خویش را تحقیق کند تا سرعت نادر صفحات بازدارنده استحصال‌وکار آنلاین نشود.

7. تعداد صفحات ایندکس نشده را کاهش دهید
در شرایطی که وب سایت تعداد متعددی صفحه ایندکس نشده در دسترس موتورهای کاوش داشته باشد، بایستی آنان را پیدا نمائید و استدلال ایندکس نشدن صفحه های را رفع کنید. صفحات غیر قابل ایندکس اشکال زیر را دارا هستند:

ریدایرکت ( 3xx )
صفحه ها ناموجود ( 4xx )
صفحاتی که خطای سرور دارند ( 5xx )
نشانی هایی که ایندکس نمی‌شوند ( تگ Noindex یا این که URL کنونیکال دارا‌هستند )
8. تغییر و تحول ساختار لینک و پیوند داخلی بد
کیفیت پیوند هایی که به صفحه های خویش می دهید نقش متعددی را در seo میزان دارایی خزش دارد، به طوری که می بایست ساختار پیوند داخلی را در یک قاعده ای رعایت نمایید. از جملهً تعداد دو یا این که سه پیوند داخلی به صفحه های دیگر بدهید و بک لینک های خویش را بهبود دهید.

از ساختار لینک و پیوند داخلی سلسله مراتبی اجتناب نمائید، زیرا در اکثر وقت ها موردها مرور نمیشوند. ( بخصوص صفحه های انتهای سلسله مراتب )

از جمله در شرایطی که نوشته‌علمی ای که 3 سال قبلی آن را در وب سایت خویش قرار دادید که ترافیک ارگانیک بالایی دارد. بایستی در محتوای تازه آن را پیوند دهید. ولی شما میتوانید برای بهبود لینک و پیوند های داخلی سایت نوشته‌علمی پیوند داخلی چه تاثیری در بهینه سازی تارنما دارد در وب لاگ آی وحید را استیناف فرمایید و از اهمیت و روش ساخت و ساز پیوند های داخلی اگاهی پیدا کنید.