zhaket logo

محتوای خود را به قطعات کوچک تبدیل نکنید

اخبار اینترنت

2 دقیقه زمان مطالعه

در حالی که بسیاری از متخصصان سئو به دنبال راه‌هایی برای «بهینه‌سازی» محتوا برای مدل‌های زبانی بزرگ (LLMها) هستند، گوگل موضع بسیار روشنی را درخصوص یک ادعا اتخاذ کرده است: محتوای خود را به قطعات کوچک (bite-sized chunks) تقسیم نکنید!

دنی سالیوان، یکی از چهره‌های کلیدی روابط جستجوی گوگل، در اپیزود ۹ ژانویه ۲۰۲۶ پادکست Search Off the Record اعلام کرد که گوگل نه تنها این رویکرد را توصیه نمی‌کند، بلکه آن را کاملاً مخالف فلسفه‌اش می‌داند.

سالیوان گفت: «یکی از چیزهایی که مرتب می‌بینم، تلاش مردم برای شکستن محتوا به قطعات کوچک است چون فکر می‌کنند LLMها چیزهای کوچک را دوست دارند. ما واقعاً نمی‌خواهیم شما این کار را انجام دهید.»

او افزود که حتی با تیم مهندسی گوگل در این باره صحبت کرده و نتیجه‌گیری مشترک این است که چنین ترفندی امروز در جستجوی گوگل کار نمی‌کند و در بلندمدت هم شکست خواهد خورد. به گفته سالیوان، سیستم‌های رتبه‌بندی گوگل در حال تکامل هستند و تمرکز روی کیفیت انسانی و جامع بودن محتوا، پایدارتر و مؤثرتر از هر ترفند فنی موقتی است.

ترفندهای کوتاه‌مدت در برابر کیفیت انسانی

چالش بزرگ سئوکاران اینجاست: برخی راهنماهای غیررسمی و مشاوران AI پیشنهاد می‌کنند مقالات را به بخش‌های ۳۰۰–۵۰۰ کلمه‌ای تقسیم کنید تا پردازش توکن در LLMها آسان‌تر شود، یا محتوای طولانی را به «لیست‌های کوتاه» و «نکات سریع» تبدیل کنید تا در پاسخ‌های AI Overviews یا عامل‌های هوش مصنوعی بیشتر دیده شوید. اما گوگل این رویکرد را نه تنها ناکارآمد، بلکه مضر می‌داند.

دلیل فنی اصلی این است که جستجوی گوگل (به‌ویژه در حالت‌های AI Mode و عامل‌محور) دیگر فقط به «وجود کلمات کلیدی» نگاه نمی‌کند؛ بلکه به کیفیت کلی، عمق و انسجام محتوا اهمیت می‌دهد. وقتی محتوا را عمداً تکه‌تکه می‌کنید:

  • ارتباط معنایی بین بخش‌ها از بین می‌رود.
  • زمینه (context) لازم برای درک کامل موضوع کاهش می‌یابد.
  • هوش مصنوعی برای پاسخ به سؤالات پیچیده مجبور به ترکیب چندین منبع پراکنده می‌شود که احتمال خطا را بالا می‌برد.
  • گوگل ممکن است صفحه را به عنوان thin content (محتوای ضعیف) طبقه‌بندی کند و رتبه‌اش را کاهش دهد.

سالیوان تأکید کرد که هدف گوگل همیشه تولید محتوایی بوده که برای انسان مفید باشد، نه فقط برای یک مدل خاص بهینه شود. او هشدار داد که تلاش برای «هک» LLMها با تکه‌تکه کردن محتوا، در بهترین حالت موقتی است و در بدترین حالت می‌تواند به افت رتبه‌بندی بلندمدت منجر شود


تحریریه ژاکت

مشاهده تیم تحریریه

0

دیدگاه ها

ارسال دیدگاه

ارسال دیدگاه