השינוי האלגוריתמי שגוגל מכנה "Panda" מטריד בימים האלה את מנוחתם של הרבה אנשים. לא רק את הבעלים של אתרי המאמרים, שנראים כנפגעים העיקריים, אלא גם הרבה מקדמי אתרים שהתבססו על אתרי מאמרים ועל מאמרים בכלל בעבודת הקידום השוטפת.
גוגל, כרגיל, לא תרמה יותר מדי הסברים ענייניים על השינוי האלגוריתמי, אבל היא מפזרת הרבה מאד רמזים והבהרות – כמו הסרטון הזה של מאט כץ, בו הוא עונה על השאלה "האם אתה ממליץ על שיווק מבוסס מאמרים כאסטרטגיית SEO".
הרעיון הבסיסי מאחורי שיווק מבוסס מאמרים (Article Marketing) הוא לפרסם מאמרים מקצועיים ולהציע אותם ל"שימוש חופשי" תמורת קרדיט וקישור לאתר הכותב. התיאוריה אומרת, שאם יש לך ידע מקצועי ואתה יודע לכתוב (ואם לא אז אפשר לשכור מישהו לשם כך), אז המאמרים שלך יהפכו למצרך מבוקש כי הם יהיו גם איכותיים וגם חינמיים.
אתרי המאמרים (בישראל הפופולריים הם מאמרים ו-Reader) משמשים כמתווכים בין כותבי המאמרים לבעלי האתרים שמפרסמים אותם, וגוזרים קופון בדמות תוכן חינם (המאמרים) וקישורים חוזרים (מהפרסומים החוזרים של המאמרים). בזה כשלעצמו אין כל רע.
כמובן, יש את הפרט הקטן הזה, שהפרסום החוזר של מאמר שכתבתם ופרסמתם באתר מאמרים הוא "תוכן כפול". זה לא רק מעמיד בספק את ערך הלינקים הנכנסים מפרסומים חוזרים של המאמר – בהנחה שיש כאלו – אלא גם הופך את עצם השימוש במאמרים חינמיים כאלה לבעייתי ומרתיע. מי שכן מעוניין במאמרים הם ספאמרים ו-scrapper-ים למיניהם, שממילא לאתרים שלהם יש תוחלת חיים קצרה.
לכותבי המאמרים, מצדם, אין מוטיבציה אמיתית להשקיע בכתיבת המאמרים, כי הסיכוי שלהם להניב יותר לינקים אם יהיו איכותיים לא באמת גדול. הוסיפו לכך את העובדה הבסיסית, שאין כמעט שום סינון איכותי באתרי המאמרים, ותבינו מדוע גוגל מכנה אותם "חוות תוכן" (Content Farms), על משקל "חוות לינקים" (Link Farms). המסר של גוגל ברור, גם אם קצת מכליל: זה ספאם, תפסיקו עם זה.
איך מזהים חוות תוכן
הנושא, ומן הסתם גם השאלה שנשאל מאט כץ, לא חדשים – הם פשוט הפכו אקטואליים מאד, ולכן הוא כנראה בחר לענות עליהם עכשיו. התשובה? אין בה שום דבר חדש כשלעצמה, היא יכולה הייתה להתפרסם בכל זמן, ובעיתוי הזה מה שאפשר הוא בעיקר לחפש בה סאבטקסט.
נסו את זה: כץ מגדיר את הבעיה כקשורת-תוכן ולא קשורת-לינקים. הפרסום החוזר הוא תוכן כפול; האתרים שמפרסמים "נוטים להיות" לא איכותיים; הטקסטים עצמם לא איכותיים; ה-Anchors חוזרים על עצמם ("Duplicate Anchors", כדאי לשנן את הביטוי). כשמציגים את זה כך, לא רק השימוש באתרי המאמרים אלא הרבה דברים אחרים שמקדמי אתרים עושים עלולים להיראות בעייתיים.
אז איך בכל זאת מבחינים בין אתר תוכן לחוות תוכן? מה אפשר לעשות כדי לא להיחשב לחוות תוכן?
אהרון וול מ-SEO Book מציע רשימת מאפיינים לזיהוי "תוכן איכותי" או "מסמך שימושי" (Useful document) בשפתה של גוגל, שיבטיחו שאתם בצד הנכון:
- הוא מקורי (לא תוכן כפול).
- הוא מקבל לינקים מאתרים אחרים.
- הוא לא עמוס במודעות.
- הוא שייך, בדרך-כלל, לגורם (אדם, חברה וכו') שיש לו קיום ופעילות מחוץ לרשת.
- גולש אמיתי שייכנס אליו לא יחשוב שמדובר בספאם.
- אנשים שנכנסים אליו לא נוהגים לצאת ממנו מייד (= Bounce גבוה) ולהקליק על תוצאה אחרת.
נשמע טריוויאלי? כך חושב גם אהרון וול. יש כאן, הוא מטעים, משהו שגוגל לא מספרת לנו. טריק שעליו השינוי האלגוריתמי מתבסס.
לחפש מתחת לפנס הנכון
קונסולידציה של תוכן לשם פרסום חוזר היא לא בהכרח ספאמית. גם באתרים של וושינגטון פוסט, ניו-יורק טיימס ופיננשל טיימס גוגל מוצא לפעמים "תוכן כפול" – ידיעות וכתבות של סוכנויות ידיעות (AP, רויטרס, בלומברג, AFP וכו') שמתפרסמים לעיתים בין לילה במאות אתרים. מצד שני, הוושינגטון פוסט נוהג לפרסם מדי פעם גם תוכן מקורי שלא מקשר לאתרים קיקיוניים, וכתוב בשפה קצת יותר עשירה מהנהוג באתרי המאמרים.
ואגב: אתרי חדשות מקשרים מתוך תוכן בעיקר לעצמם – משהו שפשוט לא יכול לקרות בפרסום חוזר של מאמרים לשימוש חופשי (תנאי השימוש במאמרים אוסרים שינוי בקישורים הכלולים במאמר).
במילים אחרות: זה לא צריך להיות קשה מדי לגוגל לזהות אתרי מאמרים או להבדיל אלגוריתמית בין אתרי ספאם מבוססי מאמרים לשימוש חופשי לבין אתרי תוכן איכותיים יותר. החידוש הוא לא בזה. החידוש העיקרי הוא בכך שגם אתרי מאמרים (ואתרים אחרים) עלולים להיות מזוהים כספאמיים, אם יפלו בקריטריונים מסויימים שלפחות חלקם קשורים לאיכות התוכן.
לא בטוח אם גוגל הגיעה כאן באמת לפריצת דרך אלגוריתמית או פשוט הגדילה משמעותית את המשקל של סיגנלים קיימים שקשורים לאיכות התוכן. מה שמחזיר אותנו שוב לשאלות הנוגעות לאותו "תוכן איכותי" – מהו, כיצד ניתן לזהותו, מה מבדיל בינו לבין תוכן שאינו איכותי וכו'. אבל זה כבר נושא לפוסט אחר.
ורק הערה לסיום: לכולנו יש מה לשפר ובמה להשתפר. אני מקווה שאתרים כמו "מאמרים" ו-Reader שהזכרתי קודם, ישכילו לעבור את המשוכה האלגוריתמית הזו ואולי מעז יצא מתוק לכולם.
אני לא יודע בדיוק מהי הסטטיסטיקה, אבל בארץ יש יותר אתרים שמעתיקים תכנים איכותיים בלי קרדיט מאתרי תוכן גדולים מאשר אתרים שבאמת מעתיקים מאמרים מאתרי מאמרים. אני רואה את זה כל יום גם אצלי וגם אצל בעלי אתרים שמישהו "עשה להם טובה" ומילא להם את האתר בתכנים. לכן, ואני מתנסח בזהירות, הבעיה של תוכן כפול היא פחות חמורה. עם זאת, באמת לא ברור כיצד אותם הבעלים של אתרי המאמרים מזהירים אותנו לשמור על הקווים המנחים כל שני וחמישי, אבל מאשרים לעיתים קרובות מדי מאמרים שמספיק להסתכל עליהם דקה כדי להבין שהם תורגמו תרגום מכונה ואז עברו עוד כמה פעולות Copy Paste להכנה מהירה אינסטנט.
לגבי רמת הכתיבה והתכנים, יש נושאים שפשוט אי אפשר לכתוב עליהם מאמרים מעניינים במיוחד, אבל תפקידם של אתרי המאמרים הוא לתת במה ולא לשפוט מי טוב יותר. זה "סיכון מקצועי" שכל אתר מאמרים צריך לקחת על עצמו. סביר להניח שבאותם אתרים שנענשו, הייתה רמה גבוהה מאוד של תכנים לא איכותיים למרות שקאטס גם אמר בשלב מסוים שמיעוט של דפים לא איכותים יכול לפגוע גם בדפים איכותיים…
אהלן שוקי, אחלה סקירה.
עם זאת אשמח להעלות עוד נקודה למחשבה.
מדוע לדעתך נענש האתר CultOfMac.com או עוד אתרים עם 100% תוכן ייחודי? אתה מוזמן לגגל Panda + האתר שציינתי ולראות את כל התיעודים. ישנם עוד אתרים שנענשו. לעומת זאת האתר, שכל המומחים אמרו שהעדכון בגללו – Ehow.com עלה בדירוגים.
אני לא יודע מה אחרים אומרים, עם זאת כל האתרים שאני מקדם למעט אולי 2 הם בחול, והם משתמשים במספר אסטרטגיות שנעות בין לבן בוהק לאפור כהה. ממה שהצלחתי להסיק מהתוצאות שלי זה שכח הקישורים מאתרי מאמרים לא ירד (לפחות עדיין, כנראה שיהיה עדכון גם כאן), מה שכן השתנה, זה היחס אותו גוגל מייחסים לאתרים מנופחים.
ישנה שיטת קידום שמתבססת רק על יצירת תוכן, ולא על יצירת קישורים. מה שאני הצלחתי לראות באתרים שלי, זה שגוגל פשוט הוריד את המשמעות של נפח האתר והעלתה את המשמעות של הקישורים או יותר נכון בוחנת את היחס בין כמות העמודים לכמות הקישורים הנכנסים…
זה הכל, בסה"כ, לפחות עבורי שאני מסתמך על בניית קישורים בעיקר, העידכון היה טוב לי 🙂
אחלה בלוג.
תודה.
אני לא מכיר יותר מדי את Calt Of Mac ולא רוצה להסתכן בספקולציות. מה שאני כן יודע הוא שאחרי שירד קצת בסמוך להודעה על פנדה, עכשיו הוא מטפס חזרה למעלה.
אישית, באף אחד מהאתרים הכתובים אנגלית שאני מקדם (שלי ושל לקוחות) לא ראיתי עד עכשיו שינוי משמעותי (טפו טפו) אז קצת קשה לי לשם את האצבע על מהות השינוי.
מה שאתה אומר על יחס בין קישורים נכנסים למספר הדפים באתר מעניין. הייתי מכניס למשוואה גם את הקישורים היוצאים, שב"חוות" למיניהן תמיד יהיו רבים מאד, לרוב עם טקסט עוגן קצר (שקל לזהותו כביטוי תחרותי), לעיתים קרובות ימוקמו בסוף הטקסט וכו' – בקיצור, דפוסים שקל מאד לזהות אלגוריתמית.
איתי – מסכים איתך מאד, כמעט בהכל.
לומר ש"דפים לא איכותיים יכולים לפגוע גם בדפים איכותיים" אפשר היה גם קודם, כי חלק מהסיגנלים שמשפיעים על דירוג של דף קשורים לדומיין וסיגנלים שקשורים לדומיין מושפעים ממה שקורה בדפים השונים שלו. השאלה היא, באמת, האם יש כאן משהו שהוא מעבר לזה או התחזקות של סיגנלים שכבר היו קיימים קודם.
פוסט יפה, תודה (הכנסתי אותך לRSS שלי:)
בתכלס' יש כמה נפגעים שחתפו בומבות רציניות ביותר מכל השינוי הזה של גוגל,
כתבנו פוסט שלם בנושא, אתה (ואחרים כמובן) מוזמנים לבקר:
http://www.sagive.co.il/professional-library/web-marketing/going-down-big-time-google-style/
תמשיך בעבודה הטובה שוקי!
ומסור ד"ש לשי (גלילי)
אהרון וול גורס שאם יש מאפיינים שחוזרים על עצמם באתרים מסוימים, העדכון החדש עולה עליהם. למשל, אתר שבו כל העמודים הם בני 250 מילים, ייראה "פישי" לאחר העדכון החדש. זה דומה מאוד למה שמאט קאטס אמר על טקסט עוגן זהה, שחזור על עצמו שוב ושוב, בלי גיוון.
כנראה שה"חוק" החדש של המקדמים הוא: לגוון, לגוון, לגוון.
גם במקורות לקישורים נכנסים, גם בכמויות טקסט משתנות, גם בעוגנים משתנים וכו'.
אני חושב שגיוון היה חשוב תמיד, ולמעשה גם אהרון וול אמר תמיד לגוון (למשל ב-anchors. הרבה לפני שכץ הודה בזה – כלומר, כנראה הודה שיש פילטר שמזהה דפוסים לא טבעיים בטקסט עוגן). הנחת העבודה צריכה להיות, תמיד, שברגע שאתה יוצר דפוס כלשהו גוגל יכול לזהות אותו.
למשל: צפיפות מילים קבועה, מספר מילים קבוע, לינקים לאותם אתרים מכל דף תוכן, פיזור קטן של הלינקים הנכנסים בין דפי האתר (רוב הלינקים מפנים להומפייג', למשל) וכן הלאה. האתגר הגדול הוא איך להשתמש בפרמטרים כאלה כדי לסנן, כי כמעט כל פילטר פוגע גם באתרים לגיטימיים. לדוגמא, אתר תוכן גדול מתבסס על חומרים שמגיעים ממוצר פרינט (עיתון נייר, מגזין כרומו וכו'), יש סיכוי טוב שמספר המילים לאייטמים מסוג מסוים יהיה קבוע, וכך גם הרבה מאפיינים אחרים של הטקסטים (כדי שיתאימו בדיוק לגרידים ולטמפלטים). כמובן שגוגל לא רוצה לסנן החוצה אתר כזה, ולכן הוא צריך להיעזר בהרבה פרמטרים אחרים כדי להגיע לשיעור טעות קטן.
ההבחנה של יחס קישורים לעמודים היא מעניינית וגם נשמעת די הגיונית :
נניח שיש אתר מאמרים מצליח מאוד בשם X. כל מקדמי האתרים ייקשרו אל עמוד הבית שלו, אבל בגלל שהמאמרים כתובים ברמה נמוכה , אף אחד לא ייקשר לעמודים האחרים באתר.
למעשה גם זה לא חדש, כבר הרבה זמן מדברים על החשיבות של קישורים לעמודים פנימיים, Deep Links. הגיוני מאוד שגוגל החליטה לחזק את הסיגנל הזה.
נכון. ולאתר תוכן אמיתי (כל אתרי החדשות הגדולים, למשל) תמיד יהיה deep link ratio מצוין, כי אייטמים חדשים תמיד מקבלים לינקים.
אכן היתה רעידת אדמה…
אני מכיר באופן אישי שני חברה שאיבדו מקור הכנסה של למעלה מ-100,000$ בחודש מאדסנס מהאתר שלהם, שהיה נחשב לאחד מהגדולים בתעשייה…
ואולי זה טוב?
בכל מקרה, אחלה סקירה שוקיל'ה
דיברו פה על קידום באמצעת הפצת מאמרים, מה שנשאר אצלי בסימן שאלה הוא העוצמה של לינק שיוצא
מאתר מאמרים "רגיל". אני באמת לא רואה סיבה מצד גוגל להחשיב את הלינק הזה כלינק ששווה משהו,
אבל בניסויים שעשיתי של ספין + 30 אתרי מאמרים בישראל על אתר לא תחרותי, האתר זינק למעלה רק בזכות
המאמרים, זה היה אחרי פינגווין.
מה דעתכם?