الگوریتم های گوگل برای بهبود کیفیت نتایج جستجو و ارائه پاسخهای دقیقتر و مرتبطتر به کاربران بهطور مداوم بهروزرسانی میشوند. مدیران وبسایت و متخصصان سئو برای ارتقاء رتبه سایتها در نتایج موتورهای جستجو از این الگوریتمها بهره میبرند. در سالهای اخیر، نقش هوش مصنوعی در این الگوریتمها افزایش یافته است و گوگل با استفاده از آن سعی دارد کیفیت نتایج جستجو را بهبود بخشد.
برای آنکه بتوانیم بهعنوان سئوکار یا مدیر وبسایت بیشترین بهره را از الگوریتم های گوگل ببریم، لازم است با عملکرد هر یک از آنها بهخوبی آشنا باشیم تا در زمان و مکان مناسب از آنها به درستی استفاده کنیم. به همین دلیل، در ادامه لیستی جامع از تمامی بهروزرسانیهای الگوریتم های گوگل به همراه توضیحاتی کوتاه درباره هر کدام ارائه میشود.
الگوریتم های گوگل کدامند؟
از آنجا که الگوریتم های گوگل نقش اصلی را در تعیین رتبه صفحات وب در نتایج جستجو ایفا میکنند، به آنها تحت عنوان الگوریتمهای سئو یا الگوریتمهای بهینهسازی سایت نیز اشاره میشود. در سالهای اخیر، گوگل بهطور گستردهتری از هوش مصنوعی بهره گرفته و الگوریتمهای مبتنی بر یادگیری ماشینی را در دو دسته اصلی به کار میبرد:
- الگوریتمهایی با هدف ارتقای کیفیت نتایج جستجو برای کاربران: این دسته شامل الگوریتمهایی مانند BERT، مرغ مگسخوار، کبوتر، رنکبرین، جستجوی صوتی و… میشود که تمرکز آنها بر درک بهتر نیاز کاربران و نمایش نتایج دقیقتر است.
- الگوریتمهایی با هدف مقابله با سایتهای متقلب و کمکیفیت: الگوریتم های گوگل مانند پاندا، پنگوئن، گورخر، Page Layout و دیگر موارد مشابه، طراحی شدهاند تا سایتهای فریبنده و اسپم را شناسایی و از نتایج برتر حذف کنند.
علاوه بر این، گوگل از الگوریتم E-A-T که با مشارکت نیروی انسانی توسعه یافته، برای ارزیابی کیفیت صفحات وب استفاده میکند. همچنین هسته اصلی موتور جستجوی گوگل از محاسبات ریاضی پیشرفته برای رتبهبندی نتایج بهره میبرد.
در ادامه با برخی از مهمترین الگوریتم های گوگل که به کمک هوش مصنوعی و سایر روشها در رتبهبندی سایتها نقش دارند، آشنا خواهیم شد.
معرفی الگوریتم های گوگل
در سالهای اولیه، گوگل تنها تغییرات محدودی در الگوریتمهای خود اعمال میکرد؛ اما امروزه هر ساله هزاران بهروزرسانی در الگوریتمها انجام میدهد که بیشتر آنها به اندازهای کوچک هستند که تأثیر زیادی بر روی کاربران ندارند. با این حال، بهروزرسانیهای بزرگ و اساسی که تأثیر قابلتوجهی بر سئو دارند، در ادامه معرفی خواهند شد.
الگوریتم هیلتاپ، 2003
الگوریتم هیلتاپ (Hilltop) یکی از الگوریتمهای قدیمی گوگل است که در سال 2003 معرفی شد و همچنان در استفاده قرار دارد. این الگوریتم به شناسایی صفحات معتبر برای رتبهبندی میپردازد و در کنار الگوریتم PageRank برای شناسایی صفحات تخصصی و معتبر به کار میرود. صفحات تخصصی به صفحاتی اطلاق میشود که بهطور خاص به یک موضوع خاص پرداخته و به سایتهای دیگر لینک دادهاند. هیلتاپ از این روش برای شناسایی صفحات معتبر وب استفاده میکند و سپس گوگل برای ارزیابی و رتبهبندی وبسایتهای باکیفیت از این اطلاعات بهره میبرد.
الگوریتم فرشنس (Freshness)، 2011
الگوریتم فرشنس باعث شد تا نتایج جستجو برای کوئریهایی که هدف کاربر از جستجو مشاهده محتوای جدیدتر است، بر اساس زمان انتشار مرتب شوند. این الگوریتم به گوگل کمک کرد تا برای برخی جستجوها که کاربران به دنبال محتوای تازه هستند، نتایج بهروزتری نمایش داده شود. با این حال، این به این معنا نیست که برای تمامی کوئریها بروز بودن محتوا اهمیت داشته باشد.
بهعنوان مثال، اگر کاربری درباره تیمهای حاضر در جام جهانی جستجو کند، گوگل نتایج مرتبط با تیمهای حاضر در جام جهانی 2024 را در اولویت قرار میدهد. این الگوریتم باعث شد تا موضوعات داغ و ترند بهراحتی در دسترس علاقهمندان قرار بگیرد. برای شناسایی محتوای ترند، این الگوریتم از منابع مختلفی مانند شبکههای اجتماعی، وبسایتهای خبری و جستجوهای کاربران استفاده میکند.
الگوریتم ونیز (venice) ،2012
الگوریتم ونیز در سال 2012 معرفی شد و یکی از الگوریتمهایی است که به بهبود سئوی محلی کمک میکند. این الگوریتم با استفاده از اطلاعات گوگل مپ، آدرس IP دستگاه و GPS موقعیت جغرافیایی کاربر را شناسایی کرده و از آن برای نمایش نتایج محلی مرتبط و نزدیکتر به کاربر استفاده میکند. پیش از این به کمک ابزار Google Places این کار انجام میشد، اما با انتشار الگوریتم ونیز، نتایج جستجو بر اساس موقعیت جغرافیایی کاربر اولویتبندی شد. این قابلیت همچنان در الگوریتم جستجوی گوگل و سایر سرویسهای گوگل، مانند یوتیوب، مورد استفاده قرار میگیرد.
الگوریتم دزد دریایی، 2012
الگوریتم دزد دریایی (Pirate) در سال 2012 معرفی شد و هدف اصلی آن شناسایی سایتهایی است که قوانین کپی رایت را نقض میکنند. این الگوریتم تضمین میکند که سایتهای اینترنتی به رعایت حقوق کپی رایت پرداخته و از انتشار محتوای دارای کپی رایت مانند موسیقی، فیلم، کتاب و … جلوگیری کنند. در صورت شناسایی این گونه سایتها، رتبه آنها کاهش مییابد. اگرچه شناسایی تمامی سایتهای متخلف دشوار است، زیرا تعداد آنها در حال افزایش است، اما این الگوریتم به طور کلی در انجام وظیفه خود موفق عمل کرده و گوگل همواره در تلاش است تا آن را بهبود بخشد.
الگوریتم موش کور (Possum)، 2016
الگوریتم موش کور که در سال 2016 معرفی شد، یکی دیگر از الگوریتم های گوگل است که به همراه الگوریتم کبوتر تأثیر زیادی بر سئوی محلی و نتایج جستجوی محلی دارد. پیش از معرفی الگوریتم موش کور، کسبوکارهای کوچک و مناطق حومهای شانس کمتری برای حضور در نتایج جستجوی محلی داشتند. اما با انتشار این الگوریتم، فرصتهایی برای این کسبوکارها فراهم شد تا بتوانند رتبه خود را در جستجوهای محلی بهبود دهند.
الگوریتم فرد (Fred)، 2017
الگوریتم فرد در سال 2017 معرفی شد و تمرکز اصلی آن بر روی لینکهای تبلیغاتی، خرید بکلینک و کیفیت محتوای سایتها بود. بهطور خاص، سایتهایی که از تبلیغات زیاد، محتوای بیکیفیت و لینکهای افیلیت (لینک به سایتهای فروشگاهی) بهطور مفرط استفاده میکنند، تحت جریمه این الگوریتم قرار میگیرند.
الگوریتم (E-A-T) ، 2019
پس از مدتی، گوگل متوجه شد که در برخی موضوعات باید دقت بیشتری به خرج دهد و محتوای مرتبط با سلامت و مسائل مالی باید از نظر صحت و اعتبار مورد تایید قرار گیرد. به همین دلیل، در سال 2019 استاندارد E-A-T را معرفی کرد. در واقع، E-A-T یک الگوریتم نیست، بلکه یک مجموعه از دستورالعملها و استانداردهای بررسی کیفیت محتوای صفحات وبسایتها است که توسط گوگل تعیین شده است.
گوگل سایتهای مربوط به این حوزهها را با عنوان YMYL (مخفف عبارت Your Money Your Life) معرفی کرد و تأکید کرد که محتوای سایتهای حقوقی، بهداشتی و مالی باید از دقت و اعتبار بالاتری برخوردار باشد و بر اساس یک سری استانداردها و راهنماییها نوشته شوند؛ این استانداردها از طریق E-A-T بررسی میشوند. اگرچه E-A-T بهطور فنی یک عامل رتبهبندی محسوب نمیشود، اما میتواند تأثیر زیادی بر رتبه سایت داشته باشد. E-A-T به معنای تخصص (Expertise)، اعتبار (Authoritativeness) و اعتمادپذیری (Trustworthiness) است.
در الگوریتم E-A-T، تخصص به نویسنده محتوا اشاره دارد. این الگوریتم بیان میکند که نویسنده محتوا باید دانش و تخصص کافی در حوزه مربوطه داشته باشد. اعتبار زمانی حاصل میشود که محتوای منتشر شده دقیق و صحیح باشد. وجود خطاهای علمی میتواند باعث کاهش اعتبار یک سایت شود. همچنین، اعتمادپذیری سایت زمانی دچار مشکل میشود که از محتوای کپی شده و غیرمعتبر استفاده شود. از دیدگاه گوگل، محتوای قابل اعتماد باید از منابع معتبر بهره برده و مستند باشد.
الگوریتم (EMD) ، 2019
پس از معرفی الگوریتمهای پاندا و پنگوئن، بسیاری از سایتها با از دست دادن رتبه خود مواجه شدند و برای جبران این کاهش رتبه، به استفاده از روشهای سئو کلاه سیاه روی آوردند. آنها سعی کردند با تمرکز بیش از حد بر روی کمیتها، رتبههای بالاتری کسب کنند، مانند استفاده افراطی از لینکها، کلمات کلیدی و حتی قرار دادن کلمات کلیدی در دامنه سایت که در ابتدا موفق هم بودند. در این شرایط، گوگل الگوریتم EMD را در سال 2012 معرفی کرد و طی سالها این الگوریتم بارها بهروزرسانی و بهبود یافت. الگوریتم EMD یکی از بهروزرسانیهای بزرگ بود که باعث حذف سایتهای بیکیفیت از نتایج جستجو شد.
EMD مخفف Exact Match Domain به معنای “دامنه دقیقا مرتبط” است و به دامنههایی اشاره دارد که دقیقاً با کلمه کلیدی جستجو شده توسط کاربر مطابقت دارند. پیش از این، سایتها بدون توجه به کیفیت محصول یا محتوای خود، دامنههای خود را بر اساس کلمات کلیدی انتخاب میکردند و اغلب در نتایج جستجو رتبه خوبی کسب میکردند، اما این بهروزرسانی جلوی این روش را گرفت.
الگوریتم گوگل پاندا
الگوریتم پاندا یکی از قدیمیترین الگوریتم های گوگل است که به منظور بررسی کیفیت محتوا و انتخاب بهترین صفحات برای رتبهبندی معرفی شد. این الگوریتم از زمان انتشار خود چندین بار بهروزرسانی شده است. آخرین بهروزرسانی مهم پاندا در 11 ژانویه 2016 رخ داد، زمانی که گوگل اعلام کرد پاندا با الگوریتم core ادغام شده است. این ادغام موجب شد تا علاوه بر ارزیابی کیفیت محتوا، بکلینکها و ارتباط آنها با محتوا نیز بهطور همزمان بررسی شوند.
الگوریتم گوگل پنگوئن
الگوریتم پنگوئن یکی از الگوریتم های گوگل است که چندین بار بهروزرسانی شده است. آخرین بهروزرسانی این الگوریتم در 23 سپتامبر 2016 انجام شد، زمانی که الگوریتم پنگوئن با الگوریتم core ترکیب شد. به این ترتیب، علاوه بر نظارت بر استفاده به موقع و مناسب از کلیدواژهها در محتوا، کیفیت بکلینکهای صفحات وب نیز مورد بررسی قرار میگیرد. الگوریتم پنگوئن یکی از عوامل مهم در تعیین امتیاز رتبهبندی گوگل برای صفحات وب است و تأثیر زیادی بر نتایج جستجوهای گوگل دارد.
الگوریتم مرغ مگس خوار
بهروزرسانی مرغ مگس خوار یکی از الگوریتمهای جدید گوگل در زمان خود بود که بهمنظور بهبود نمایش نتایج جستجو معرفی شد. هدف این الگوریتم این بود که گوگل بتواند معنای دقیق عبارتهای جستجو شده و عبارات پیچیده موجود در محتوای صفحات وب را درک کند و ارتباط مناسب میان آنها را شناسایی کند. طبق اعلام گوگل، این الگوریتم تاثیر زیادی بر نتایج جستجو در سطح جهانی داشت و حدود 90% از نتایج جستجوها را تحت تأثیر قرار داد.
الگوریتم مرغ مگس خوار در تاریخ 26 سپتامبر 2013 بهطور رسمی معرفی شد، اما از آگوست 2013 کار خود را آغاز کرده بود. هدف اصلی آن شناسایی مفهوم دقیق عبارات جستجو شده توسط کاربران بود.
الگوریتم گورخر
گوگل الگوریتم گورخر را در ژانویه 2012 با هدف نظارت بر امنیت سایتهای فروشگاهی معرفی کرد. این الگوریتم ایجاب میکند که تمامی سایتهای فروشگاهی استانداردهای خاصی را رعایت کنند؛ از جمله داشتن نماد اعتماد الکترونیکی، ارائه اطلاعات تماس، سیاستهای بازگشت کالا، محتوای مرتبط و مناسب برای کالاها، سیاستهای قیمتگذاری منصفانه و دیگر مواردی که بر اعتماد کاربران تاثیرگذار است.
گورخر یک الگوریتم ضد اسپم است و فروشگاههای آنلاین که سیاستهای نادرستی در فروش کالا دارند، توسط این الگوریتم جریمه خواهند شد.
الگوریتم کبوتر
الگوریتم کبوتر یکی از مهمترین بهروزرسانیها در جستجوی محلی بود که در تاریخ 24 جولای 2014 معرفی شد. پس از این بهروزرسانی، بسیاری از جستجوها بهطور خاص بر اساس موقعیت جغرافیایی کاربران انجام میشود. سئو محلی از اهمیت زیادی برخوردار است، چرا که کاربران اغلب تمایل دارند نتایج جستجوهایی را مشاهده کنند که از نظر جغرافیایی به آنها نزدیکتر هستند.
کسبوکارهایی که بهطور سنتی مخاطبان محلی داشتند، با این الگوریتم توانستند مخاطبان بیشتری را از همان منطقه جذب کنند. الگوریتم کبوتر گوگل بر اساس موقعیت مکانی کاربران، بهترین و مرتبطترین نتایج را نمایش میدهد.
الگوریتم Page Layout
الگوریتم Page Layout گوگل به نحوه قالببندی صفحات وب توجه دارد و از این طریق به رتبهبندی آنها میپردازد. به طور مثال، اگر یک صفحه وب با تبلیغات و بنرهای متعدد پر شده باشد و کاربران برای پیدا کردن محتوای اصلی با مشکل مواجه شوند، این وضعیت بهعنوان یک نکته منفی از نظر سئو در نظر گرفته میشود.
گوگل تمایلی ندارد کاربران را به صفحاتی هدایت کند که تجربه کاربری نامناسبی دارند، مانند صفحاتی که با تبلیغات و بنرهای زیاد شلوغ شدهاند. این الگوریتم در تاریخ 6 فوریه 2014 معرفی شد.
الگوریتم PayDay Loan
الگوریتم PayDay Loan که در تاریخ 12 ژوئن 2014 بهروزرسانی شد، به شناسایی عبارات جستجویی که بهطور غیرطبیعی بهعنوان اسپم جستجو میشوند، میپردازد. یکی دیگر از اهداف این الگوریتم، حفاظت از نتایج جستجو در برابر حملات سئوی منفی و تلاش برای حفظ کیفیت آنهاست.
الگوریتم رنک برین
الگوریتم رنک برین یکی از مهمترین و پر سر و صداترین الگوریتم های گوگل است که تا آوریل 2015 در مرحله آزمایش بود و در اکتبر همان سال بهطور رسمی معرفی شد. این الگوریتم مبتنی بر یادگیری ماشین است و وظیفه دارد نتایج جستجو را فیلتر کرده و بهترین پاسخ ممکن را بر اساس پرسش کاربر در صفحه نتایج جستجو نمایش دهد.
رنک برین در بین الگوریتم های گوگل در جایگاه سوم از نظر اهمیت قرار دارد. هدف اصلی آن درک نیت واقعی کاربران از جستجوهایشان است تا بدینوسیله گوگل بهترین و مرتبطترین نتایج را به آنها ارائه دهد.
الگوریتم mobilegeddon
گوگل تاکنون دو الگوریتم سئو برای بهینهسازی سایتها برای دستگاههای موبایل معرفی کرده است. الگوریتم جدیدتر در این زمینه “موبایل گدون” و الگوریتم قبلی “موبایل فرندلی” نام داشت. آخرین بهروزرسانی الگوریتم موبایل گدون در 12 می 2016 منتشر شد.
الگوریتم های گوگل چگونه کار میکنند؟
الگوریتمهایی که در بخشهای قبل توضیح داده شد، تنها بخشی از مجموعه الگوریتمهای پیچیدهای هستند که گوگل برای رتبهبندی نتایج جستجو استفاده میکند. این الگوریتمها مسئول ارزیابی عملکرد و کیفیت وبسایتهای مختلف هستند.
هر کدام از این الگوریتمها بخش خاصی از سایتها را بررسی کرده و با ترکیب نتایج این بررسیها، سایتها در نتایج جستجو رتبهبندی میشوند. این الگوریتمها که مبتنی بر هوش مصنوعی طراحی شدهاند، به کاربران این امکان را میدهند که هنگام جستجوی مطالب مختلف، به بهترین و مرتبطترین نتایج دست یابند.
گوگل هرگز جزئیات کامل در مورد این الگوریتمها و نحوه عملکرد دقیق آنها را فاش نمیکند، اما بهطور کلی برخی از اصول را اعلام میکند و متخصصان سئو با تجربه و آزمونوخطا به شواهدی دست مییابند که به ما کمک میکند این الگوریتمها را بهتر درک کنیم.
در کل، این الگوریتمها در تمامی جستجوها به کار گرفته میشوند، اما بسته به نوع جستجو و درخواست کاربر، به طور شخصیسازیشده عمل میکنند. برای مثال، هنگام جستجو در مورد یک کسبوکار محلی، الگوریتم کبوتر تاثیر بیشتری دارد، در حالیکه برای جستجوهای مربوط به رویدادهای ورزشی، الگوریتم کبوتر نقش خاصی ندارد.
الگوریتم های گوگل بهطور مداوم بهروزرسانی میشوند و نسخههای جدیدتر بهبود یافته از الگوریتمهای قبلی هستند. علاوه بر این، به مرور زمان الگوریتمهای جدید به این مجموعه افزوده میشود.
الگوریتم های گوگل چه تاثیری بر سئو و رتبهبندی سایت دارند؟
در دنیای امروز، هزاران سایت در هر زمینهای وجود دارند که برای دستیابی به رتبههای بالاتر در موتور جستجو با هم رقابت میکنند. برای کاربران، مشاهده و بررسی همه این سایتها برای پیدا کردن بهترین نتیجه ممکن نیست؛ بنابراین، این وظیفه به الگوریتم های گوگل واگذار شده است تا بهترین نتایج را به نمایش بگذارند.
گوگل از طریق خزندههای خود صفحات وب را شناسایی کرده و برای هر عبارتی که ممکن است جستجو شود، فهرستی از صفحات ایجاد میکند (این صفحات ایندکس میشوند). این فرایند خودکار، که جایگاه هر نتیجه جستجو را مشخص میکند، توسط الگوریتم پیج رنک (Page Rank) تعیین میشود.
هنگامی که کاربر عبارتی را جستجو میکند، گوگل به جای بررسی تمام صفحات، به صفحات ایندکس شده که قبلاً خزیده است نگاه میکند و آنها را به کاربر نمایش میدهد.
الگوریتم پیج رنک در فرآیند رتبهبندی خود از دادههایی استفاده میکند که دیگر الگوریتمها تعیین میکنند. برای مثال، اگر سایت شما یک کسبوکار محلی باشد و شما سئو محلی را به خوبی انجام داده باشید، الگوریتمهای کبوتر و ونیز امتیاز بالاتری به شما میدهند و بنابراین در جستجوهای محلی، رتبه بهتری نسبت به رقبای خود خواهید داشت که سئو محلی را نادیده گرفتهاند. همین روند برای سایر جستجوها نیز صدق میکند.
این الگوریتمها به گوگل و پیج رنک کمک میکنند تا جزئیات هر سایت را بهدقت بررسی کنند. اگر سایتی تخلفی انجام دهد، ممکن است با کاهش رتبه یا حذف از نتایج جستجو مواجه شود. اما اگر سایتی اصول و قوانین را رعایت کرده باشد، جایگاه آن بهبود مییابد. به همین دلیل، درک درست این الگوریتمها و جزئیات آنها اهمیت زیادی دارد؛ زیرا نادیده گرفتن هرکدام از آنها میتواند تمام تلاشهای شما برای بهینهسازی سایت را بیاثر کند.
چرا باید از آخرین به روزرسانی های الگوریتم های گوگل باخبر شویم؟
آشنایی با آخرین بهروزرسانیها و الگوریتمهای جدید گوگل برای مدیران وبسایتها و سئوکاران اهمیت زیادی دارد، چرا که این دانش به بهینهسازی بهتر سایتها و کسب جایگاه بالاتر در نتایج جستجو کمک میکند. با درک دقیق قوانین حاکم بر رتبهبندی صفحات وب، میتوانیم صفحات سایت خود را به گونهای طراحی کنیم که با اصول سئو هماهنگ بوده و از نظر گوگل بهعنوان مرتبطترین صفحات برای کلمات کلیدی مورد نظر شناخته شوند.
برای آگاهی از جدیدترین الگوریتم های گوگل، به این صفحه مراجعه کنید. این صفحه بهطور منظم بهروزرسانی خواهد شد.
جمع بندی
گوگل برای ارائه نتایج دقیقتر و مرتبطتر به کاربران خود از مجموعهای از الگوریتمها استفاده میکند که هرکدام مسئولیت بخشی از فرآیند رتبهبندی سایتها را بر عهده دارند. این الگوریتم های گوگل میتوانند هم رتبه سایت شما را بهبود بخشند و هم در صورت عدم رعایت اصول آنها، جریمههایی برای سایت به همراه داشته باشند.
برای دستیابی به رتبههای بهتر، ضروری است که با این الگوریتم های گوگل آشنا شوید و از انجام اقداماتی که مغایر با قوانین آنهاست، خودداری کنید. در این مهندس سینا محمدیاری، به معرفی الگوریتم های گوگل پرداختهایم که تأثیر زیادی بر رتبهبندی و سئو دارند.
دیدگاه شما