گوگل با هدف بهبود امنیت در برابر باتهای شخص ثالث و ابزارهای استخراج داده (Scrapers) و همچنین ردیابی رتبه بندی (Rank Tracking)، تغییراتی را در نحوه ارائه نتایج جستجو ایجاد کرده که استفاده از جاوااسکریپت را برای کلاینت های انسانی و خودکار الزام آور کرده است.
با این بروزرسانی، درصورت غیرفعال بودن جاوااسکریپت، پیامی مبنی بر لزوم فعال کردن آن نمایش داده میشود.
این تغییرات بر روی ابزارهای تحلیل سئو، مخصوصا سرویس های ردیابی رتبه بندی که به رباتها برای استخراج داده متکی هستند، تأثیر قابل توجهی گذاشته که از جمله ان می توان به محدودیت نرخ درخواستها (Rate Limiting) و کنترل تعداد مجاز Requestها در یک بازه زمانی معین اشاره کرد.
![]()
درجریان این تحولات، اسکرینشاتی از کدهای DevTools کروم به اشتراک گذاشته شده که احتمالا مربوط به این محدودیتها است:
- تولید مقدار تصادفی (Randomized Value Generation) – اگر ربات بخواهد تلاش خود را افزایش دهد، این مکانیسم به صورت تصادفی شروع به ایجاد تأخیر میکند تا جلوی تلاش مداوم ربات را بگیرد.
- محدود کردن نرخ درخواستها (Rate Limiting) -اگر یک کلاینت تلاش کند خیلی سریع یا به تعداد زیادی درخواست ارسال کند، این مکانیسم باعث میشود درخواستها محدود شوند.
- مکانیزم (Exponential Backoff) – زمانی که یک درخواست با خطا مواجه میشود، زمان بین تلاشهای مجدد به صورت نمایی افزایش مییابد. (این رویکرد برای جلوگیری از تلاشهای Endless طراحی شده است.)
گوگل در سپتامبر ۲۰۲۳ پتنتی با عنوان “”Pattern-based classification” منتشر کرد که تعاملات کاربران با محتوای دیجیتال را تحلیل و به کمک مدلهای یادگیری ماشین، رفتارهای غیرطبیعی را شناسایی میکند.
این پتنت قادر است:
- الگوهای زمانی برای شناسایی کلیکهای غیرطبیعی و خودکار تحلیل کند.
- رفتارهایی که با الگوهای انسانی سازگار نیستند را شناسایی نماید.
- کلیکهای جعلی را شناسایی و باعث کاهش تاثیر آنها بر الگوریتمهای رتبهبندی شود.
تغییرات اخیر گوگل فرصتی را ایجاد کرده تا متخصصان سئو از وابستگی بیش از حد به رتبهبندی، مخصوصا ردیابی رتبه بندی ها فاصله گرفته و بر استراتژیهای متنوعتر تمرکز کنند. موضوعی مهم که بار دیگر اهمیت دادههای دست اول کسب و کارها و رویکردهای خلاقانه در بازاریابی دیجیتال را مورد توجه قرار می دهد.

