جلسه 5 آموزش رایگان سئو
جلسه 5 آموزش رایگان سئو: فوت و فن الگوریتم های گوگل؛ رتبه بندی سایت تان چطور انجام می‌شود؟

فوت و فن الگوریتم های گوگل؛ رتبه بندی سایت تان چطور انجام می‌شود؟     ذهن خودتان را جوری هدایت کنید و چشم‌ها را جوری بشورید که فقط ایده‌های پولساز را ببینید

Picture of علیرضا فرج پور

علیرضا فرج پور

استاد دانشگاه و مدیر مجموعه تبلیغات سئوماتیک

فوت و فن الگوریتم های گوگل؛ رتبه بندی سایت تان چطور انجام می‌شود؟

 

 
ذهن خودتان را جوری هدایت کنید و چشم‌ها را جوری بشورید که فقط ایده‌های پولساز را ببینید و آن وقت است که می‌توانید با تکیه بر فکرها و ایده‌هایتان، یک کسب‌وکار فوق‌العاده و پردرآمد راه‌اندازی کنید و موفقیت‌های درخشانی را رقم بزنید.

یکی از این فرصت‌های درآمدزا در سئو، ساخت سایت‌های معرفی یک محل یا مکان است مثلا سرچ می‌کنیم رستوران در مشهد و صفحاتی که بالا می‌آیند که اطلاعات کاملی شامل لوکیشن و تصاویر جذاب را معرفی می‌کنند. هزینه دستمزد ساخت چنین صفحاتی برای ثبت فروشگاه در مپ یا معرفی رستوران و یک مکان، حدود 17 میلیون است در حالی که ایجاد این نوع سایت‌ها بسیار آسان و کم زحمت است. اگر فروشگاهی دارید اما نمی‌دانید که چطوری آن را ثبت کنید، برای ثبت فروشگاه در مپ فقط کافی است که با ما در ارتباط باشید.

پاندا، پنگوئن، مرغ مگس‌خوار: چرا الگوریتم های گوگل اسم حیوانات دارند؟

خب به سراغ بحث اصلی این جلسه یعنی الگوریتم‌ های گوگل برویم. برخلاف تصور مردم که الگوریتم‌ها را به کدنویسی‌های سخت ربط می‌دهند، تمام الگوریتم‌ها با درک عمیق از نیاز کاربر کار می‌کنند و اصل اساسی کارکرد الگوریتم های گوگل، رفع نیاز از مخاطب است. مثلا ما می‌خواهیم رانندگی کنیم، چه نیازی داریم که بدانیم نحوه کارکرد گیربکس و دنده چطور است یا ما هر روز از یخچال استفاده می‌کنیم، چه نیازی دارد که بدانیم اجزایش چطور کار می‌کنند، این هم مثل همان مثال ها است و ما نمی‌خواهیم بدانیم که الگوریتم‌ها چجوری ساخته شدند و فقط میخواهیم کارکردن با آن‌ها را یاد بگیریم.

گوگل اسامی الگوریتم‌ها را بامزه انتخاب کرده است مثلا الگوریتم پاندا، الگوریتم پنگوئن، الگوریتم مرغ مگس خوار و غیره. 

شاید برایتان سوال پیش بیاید که چرا نام این الگوریتم‌ها، اسامی حیوانات است؟ چون این‌ها فید و غذا می‌خواهند. سئو، فید و غذا دادن به الگوریتم‌ های گوگل و ربات‌هاست.

رفتارشناسی الگوریتم های گوگل: الگوریتم‌ها چطور ربات‌ها را کنترل می‌کنند؟

الگوریتم‌ها چگونه کار می‌کنند؟ به وسیله کراولرها crawlers.

کراولرها همان ربات‌های گوگل هستند که با چک کردن دوره‌ای سایت مان صفحات را طبق آخرین تغییرات ایندکس می‌کنند.

معنی لغوی کراول کردن به انگلیسی یعنی خزیدن در حالی که یه خط کد است و روی آن می‌شود 18 تا الگوریتم سوار کرد. مهم است که چطور بتوانیم از الگوریتم‌ های گوگل استفاده کنیم. این الگوریتم‌ها به وسیله کراولرها کار می‌کنند که همان ربات‌های گوگل هستند. در قدیم هر crawler، مسئول انجام کار یک الگوریتم بود البته در حال حاضر بهینه شده‌اند و هر کراولر می‌تواند همه‌ی الگوریتم‌ها را اجرا کند.

ما در یک پست در اینستاگراممان، کراول و وظیفه آن‌ها را کاملا شرح دادیم. می‌توانید برای درک بهتر، پیج مان را فالو داشته باشید.

انسان ها در شرایط مختلف، رفتار مختلف هم از خود نشان می‌دهند اما ربات‌ها در شرایط متفاوت رفتارشان طبق آن الگوریتم است و غیر از آن نمی‌توانند کاری انجام دهند.

چطور به عنوان یک متخصص سئو، گوگل را تحت فرمان خود درآوریم؟

شاید برای شما هم سوالاتی از نحوه کارکرد الگوریتم های گوگل پیش آمده باشد؛ سوالاتی مثل گوگل به چه نحوی سایت ما را می شناسد؟ یا چگونه تغییرات وبسایت ما را تشخیص می‌دهد؟ چگونه یک سایت را در رتبه های برتر گوگل قرار می‌دهد؟ و چگونه رتبه بعضی از سایت‌ها را کاهش رتبه می‌دهد؟. اگر نحوه کار ربات های گوگل را متوجه شویم، می‌توانیم مثل توپ باهاش روپایی بزنیم.

نحوه عملکرد گوگل در 3 مرحله:

1) مرحله کراولینگ crawling: که مرحله آگاهی است. ابتدا بستر سایت را روی دامنه مشخص تاسیس می‌کنیم، یعنی از صفر شروع می‌کنیم حالا یا خودمان این کار را انجام می‌دهیم یا به طراح سایت می‌سپاریم. بعد سایت مپ sitemap را به کمک یک افزونه وردپرسی ساده تکمیل می‌کنیم و سپس در گوگل سرچ کنسول درخواست می‌دهیم. گوگل برای صفحات و متن سایتمان، کراول کردن را انجام می‌دهد. برای مثال گوگل 10 تا کراولر برای سایت ما می‌فرستد و آن‌ها می‌آیند و تک به تک متن‌ها و تک به تک صفحات سایت ما را می‌خوانند و با توجه به الگوریتم هایشان، به گوگل یک بازخورد می‌دهند مثلا این سایت کار خود را درست انجام می‌دهد. گوگل در ابتدای کار، سایت ما را در صفحه دوم قرار می‌دهد تا رنک گیری شروع شود. آن 10 کراولر هم موظف هستند که هر روز این سایت را چک کنند و گزارش دهند. اگر عملکرد این سایت ثابت باشد، آن 10 کراولر هم تعدادشان ثابت می‌ماند ولی اگر آن سایت هم درحال پیشرفت محتوا‌هایشان باشد و ترافیک مخاطب داشته باشد، کراول ها و ربات های گوگل تعداد شان زیادتر می‌شود و به تعداد این کراولرها Crawl budget کراول باجت می‌گوییم که عنصر بسیار مهمی است.

2) ایندکسینگ indexing: وقتی که sitemap سایت مپ مان را راه اندازی کردیم، فرایند ایندکسینگ اتوماتیک است و خود گوگل آن را انجام می‌دهد.

3) رنکینگ Ranking: نتیجه‌ی نهایی عملکرد الگوریتم های گوگل که تعیین می‌کند صفحه سایت شما با چه ترتیبی به کاربران نمایش داده شود.

این سه فرآیند (کراول، ایندکس، رنکینگ) یک چرخه دائمی هستند که هر روز تکرار و انجام می‌شوند. اگر لحظه‌ای از کار روی سایت خود دست برداریم، رقبای ما از این فرصت استفاده می‌کنند و جایگاه ما را می‌گیرند و عقب می‌مانیم، حتی اگر در حال حاضر رنک اول باشیم.

چطور بفهمیم گوگل چقدر سایت ما را می‌بیند؟

گوگل کنسول، سایت مپ sitemap را نشان میدهد.

در بخش settings، دو قسمت robots.txt و crawl states نشان داده می‌شود که از بخش crawl states می‌توانیم یک گزارش بگیریم که total crawl request سایتمان را نشان می‌دهد. مثالی که در فیلم زده شده و نشان داده شده است.

از تئوری تا عمل: ۵۰ ایده، انتخاب، مدل‌سازی و مدیریت انتظارات

طبق صحبت های جلسه قبل، اکنون شما باید یک فرم ایده های کسب و کار داشته باشد. لازم است فرمی شامل ۵۰ ایده کسب‌وکار نوآورانه از صفر نوشته و برای هر یک خلاصه‌ای از نحوه اجرای اولیه در نظر گرفته شود.

از میان ۵۰ ایده نوشته شده، یک ایده را به عنوان بهترین ایده کسب و کار آماده کنید. برای آن ایده باید یک مدل کسب و کار بنویسید. سپس فرم مدیریت انتظارات هم برای آن نوشته شود. امیدوارم نحوه عملکرد گوگل را به خوبی یاد گرفته باشید.