یکی دیگر از الگوریتم های گوگل برای رتبه بندی و بررسی تولید محتوا، الگوریتم پاندا است. اگر از مشتری های قدیمی گوگل باشید، حتماً برای شما هم پیش آمده است که یک موضوع خاص را در این موتور جستجو سرچ کنید و با باز کردن لینک های نتایج جستجو، کلافه و نا امید شوید چرا که محتوایی بی کیفیت، کوتاه و بی سر و ته در مقابل شما قرار گرفته است و تازه این تمام ماجرا نیست و ممکن است با سیلی از تبلیغات نامرتبط و آزاردهنده هم مواجه شوید؛ مسلماً اغلب ما در چنین شرایطی، عطای جستجو در گوگل را به لقایش بخشیده ایم و به فکر راه چاره دیگری بوده ایم؛ به همین دلیل گوگل حدود ۱۱ سال پیش تصمیم گرفت که با استفاده از تکنیک های خاصی، سطح نارضایتی کاربران را کاهش دهد.
Google Panda یک بهروزرسانی الگوریتم اصلی بود که بر رتبهبندی جستجو برای 11.8٪ از جستجوها در ایالات متحده تأثیر گذاشت. Google گفت پاندا برای کاهش رتبهبندی سایتهای با کیفیت پایین طراحی شده است (سایتهایی که ارزش افزوده پایینی برای کاربران دارند، محتوا را از سایر وبسایتها کپی میکنند. یا سایتهایی که خیلی مفید نیستند) و رتبهبندی بهتر را به سایتهای با کیفیت (سایتهایی با محتوا و اطلاعات اصلی مانند تحقیق، گزارشهای عمیق، تجزیه و تحلیل متفکرانه و غیره) پاداش میدهند.این الگوریتم رسماً در 23 فوریه 2011 شروع به کار کرد، اما تا 24 فوریه 2011 بود که ما در مورد آن مطلع شدیم. پاندا فقط بر مزارع محتوا تأثیر نداشت. وبسایتها در اندازههای مختلف، در سراسر صنایع، خشم پاندا را احساس کردند. گزارشهای متعددی مبنی بر از کار افتادن شرکتها وجود داشت، زیرا آنها سالها به ترافیک گوگل متکی بودند. زمانی که آن ترافیک از بین رفت، کسب و کار آنها نیز سقوط کرد. پس از راه اندازی اولیه، گوگل چندین به روز رسانی و به روز رسانی پاندا را به صورت تقریبا ماهانه برای دو سال آینده (9 بار در سال 2011 و 14بار در سال 2012) اعلام کرد. وبسایتهایی که تحت تأثیر Google Panda Update قرار گرفتهاند، بهصورت الگوریتمی تنزل داده شدند. این بدان معناست که هیچ یک از کارمندان گوگل برای ایجاد رتبه های پایین تر اقدام دستی انجام ندادند. هر سایتی که توسط پاندا ضربه خورد، احتمالاً گرفتار پنالتی گوگل شده است.
محققین گوگل برای بررسی مجموعهای از سایتها، سوالات دقیقی را برای بازدید کنندگان این سایتها طراحی کردند. در نهایت تیم گوگل با بررسی پاسخهایی که به سوالات داده شده بود، یک دسته از ویژگیهای کلیدی که محتوای بی کیفیت را معنا میکرد مشخص کرد. پاندا با بررسی همین ویژگیها قادر است سایتهایی با محتوای بی کیفیت را شناسایی کند. گوگل همیشه در حال بررسی و بهبود این لیست ویژگیها و خصوصیات است تا بتواند به دقیقترین شکل ممکن ارزش یک سایت را بررسی کند. این کار گوگل باعث میشود این شرکت به عنوان یک موتور جست و جو، بهترین و بدترین نتایج برای مخاطبانش را بشناسد و بهترین تجربه را برای کاربران فراهم کند.
گوگل برای اولین بار الگوریتم پاندا را در ۲۳ فوریه سال ۲۰۱۱ میلادی معرفی کرد. در بیست و چهارم فوریه همان تاریخ، گوگل پستی را در رابطه با یک آپدیت منتشر نمود. آنها ادعا کردند که یک انقلاب الگوریتمی بزرگ در رنکینگ خود به راه انداختهاند. تغییری که میتواند ۱۱.۸ کوئریها (عبارتهایی که توسط کاربران جستجو میشود) را تحت تأثیر قرار دهد. در این پست آمده است:
محتوای بیکیفیت هیچ اطلاعات مفیدی در اختیار کاربر قرار نمیدهد و دانشی به آنها اضافه نمیکند. همچنین بسیاری از محتوای وبسایتها کپی محتوای دیگر وبسایتهاست. این الگوریتم باعث بهبود رتبه وب سایتهایی خواهد شد که محتوایی خاص، مفید و منحصربهفرد دارند. بعد از این بهروزرسانی، مزارع محتوای eHow و wikiHow مجبور شدند عملکردشان را بهبود ببخشند. بهروزرسانیهای بعدی حتی از این هم سختگیرانهتر عمل کردند به طوری که از مرز محتواهای ضعیف گذشته و محتوای قابل قبول را نیز مورد حمله قرار دادند. الگوریتم پاندا به هیچ سایتی رحم نداشت و سایتهایی که مشکلات زیر را داشتند جایگاه خوب خود در صفحه نتایج را از دست دادند:
• طراحیهای بد و زننده
• تبلیغات بسیار زیاد که ارزش واقعی محتوا را کم جلوه میکرد
• چپاندن بیش از حد کلمات کلیدی در پیجها
• داشتن غلطهای نگارشی و ادبی
• جملات و متون تکراری
• بیکیفیت بودن و نامعتبر بودن محتوا
نتیجه گیری :
هدف اصلی گوگل اتصال کاربران به منابع معتبری است که ارزش منحصر به فردی را برای آنها فراهم می کند. بهروزرسانیهای الگوریتم گوگل برای بهبود عملکرد این موتور جستجو فعالیت میکنند، بنابراین Google میتواند بهتر به کاربران خود خدمات ارائه کند. گوگل پاندا و گوگل پنگوئن دو نمونه درخشان از این در عمل هستند. نکات مهم این به روز رسانی ها این است که گوگل به وب سایت ها اجازه نمی دهد برای رتبه بندی در نتایج جستجو به محتوای ضعیف و بک لینک های اسپم تکیه کنند. گوگل به طور مداوم الگوریتم خود را تغییر می دهد تا سعی کند از هوش و رفتارهای انسانی تقلید کند.