طرق تحسين محركات البحث SEO 2022

تحسين محرك البحث هو عملية تحسين جودة وكمية حركة مرور موقع الويب إلى موقع ويب أو صفحة ويب من محركات البحث. يستهدف تحسين محركات البحث (SEO) حركة المرور غير المدفوعة بدلاً من حركة المرور المباشرة أو حركة المرور المدفوعة.

تحسين الظهور في محركات البحث
تحسين الظهور في محركات البحث

قد تنشأ حركة المرور غير المدفوعة من أنواع مختلفة من عمليات البحث ، بما في ذلك البحث عن الصور ، والبحث عن الفيديو ، والبحث الأكاديمي ، والبحث عن الأخبار ، ومحركات البحث العمودية الخاصة بالصناعة.


كإستراتيجية تسويق عبر الإنترنت ، تأخذ مُحسّنات محرّكات البحث في الاعتبار كيفية عمل محركات البحث ، والخوارزميات المبرمجة بالكمبيوتر التي تملي سلوك محرك البحث ، وما يبحث عنه الأشخاص ، ومصطلحات البحث الفعلية أو الكلمات الرئيسية المكتوبة في محركات البحث ، ومحركات البحث التي يفضلها الجمهور المستهدف .

يتم تنفيذ تحسين محركات البحث (SEO) لأن موقع الويب سيستقبل المزيد من الزوار من محرك البحث عندما تحتل مواقع الويب مرتبة أعلى في صفحة نتائج محرك البحث. يمكن بعد ذلك تحويل هؤلاء الزوار إلى عملاء.


عملية تحسين محركات البحث


بدأ مشرفو المواقع وموفرو المحتوى في تحسين مواقع الويب لمحركات البحث في منتصف التسعينيات ، حيث كانت محركات البحث الأولى تقوم بفهرسة الويب المبكرة.

في البداية ، كان كل مشرفي المواقع بحاجة فقط إلى إرسال عنوان الصفحة ، أو عنوان URL ، إلى المحركات المختلفة التي ترسل متتبع ارتباطات الويب للزحف إلى تلك الصفحة ، واستخراج روابط لصفحات أخرى منها ، وإرجاع المعلومات الموجودة على الصفحة المراد فهرستها .

تتضمن العملية تنزيل عنكبوت لمحرك البحث لصفحة ما وتخزينها على خادم محرك البحث الخاص. يقوم برنامج ثان ، يُعرف باسم المفهرس ، باستخراج معلومات حول الصفحة ، مثل الكلمات التي تحتوي عليها ، ومكان وجودها ، وأي وزن لكلمات معينة ، بالإضافة إلى جميع الروابط التي تحتوي عليها الصفحة. ثم يتم وضع كل هذه المعلومات في برنامج جدولة للزحف في تاريخ لاحق.


أدرك مالكو مواقع الويب قيمة الترتيب العالي والظهور في نتائج محرك البحث ، مما خلق فرصة لكل من ممارسي تحسين محركات البحث للقبعة البيضاء والقبعة السوداء. وفقًا لمحلل الصناعة داني سوليفان ، من المحتمل أن عبارة “تحسين محرك البحث” قد دخلت حيز الاستخدام في عام 1997. وينسب سوليفان الفضل إلى بروس كلاي كأحد الأشخاص الأوائل الذين قاموا بنشر هذا المصطلح.


اعتمدت الإصدارات المبكرة من خوارزميات البحث على المعلومات التي قدمها مشرف الموقع مثل العلامة الوصفية للكلمة الرئيسية أو ملفات الفهرس في محركات مثل ALIWEB.

توفر العلامات الوصفية دليلًا لمحتوى كل صفحة. تم العثور على استخدام البيانات الوصفية لفهرسة الصفحات على أنه أقل من الموثوقية ، لأن اختيار مشرف الموقع للكلمات الرئيسية في العلامة الوصفية قد يكون تمثيلًا غير دقيق لمحتوى الموقع الفعلي.

أدت البيانات المعيبة في العلامات الوصفية مثل تلك التي لم تكن دقيقة أو كاملة أو سمات خاطئة إلى خلق احتمالية لسوء توصيف الصفحات في عمليات البحث غير ذات الصلة.

كما تلاعب موفرو محتوى الويب ببعض السمات داخل مصدر HTML للصفحة في محاولة للحصول على ترتيب جيد في محركات البحث.

و بحلول عام 1997 ، أدرك مصممو محركات البحث أن مشرفي المواقع يبذلون جهودًا للحصول على ترتيب جيد في محرك البحث الخاص بهم ، وأن بعض مشرفي المواقع كانوا يتلاعبون بترتيبهم في نتائج البحث عن طريق حشو الصفحات بكلمات رئيسية مفرطة أو غير ذات صلة.

قامت محركات البحث المبكرة ، مثل Altavista و Infoseek ، بتعديل خوارزمياتها لمنع مشرفي المواقع من التلاعب بالترتيب.


من خلال الاعتماد الشديد على عوامل مثل كثافة الكلمات الرئيسية ، والتي كانت حصريًا ضمن سيطرة مشرف الموقع ، عانت محركات البحث المبكرة من إساءة الاستخدام والتلاعب بالترتيب.

خطوات تحسين محركات البحث


لتقديم نتائج أفضل لمستخدميها ، كان على محركات البحث أن تتكيف للتأكد من أن صفحات النتائج الخاصة بها تعرض نتائج البحث الأكثر صلة ، بدلاً من الصفحات غير ذات الصلة المليئة بالعديد من الكلمات الرئيسية من قبل مشرفي المواقع عديمي الضمير.

تحسين الظهور في محركات البحث
تصدر نتائج البحث

وهذا يعني الابتعاد عن الاعتماد الشديد على كثافة المصطلح إلى عملية أكثر شمولية لتسجيل الإشارات الدلالية. نظرًا لأن نجاح محرك البحث وشعبيته يتحددان من خلال قدرته على إنتاج النتائج الأكثر صلة بأي بحث معين ، فإن الجودة الرديئة أو نتائج البحث غير الملائمة قد تدفع المستخدمين إلى العثور على مصادر بحث أخرى.

استجابت محركات البحث من خلال تطوير خوارزميات تصنيف أكثر تعقيدًا ، مع مراعاة العوامل الإضافية التي كان من الصعب على مشرفي المواقع معالجتها.

يمكن للشركات التي تستخدم تقنيات مفرطة في العدوانية منع مواقع عملائها من الظهور في نتائج البحث. في عام 2005 ، نشرت صحيفة وول ستريت جورنال تقريراً عن شركة ، Traffic Power ، التي يُزعم أنها استخدمت تقنيات عالية المخاطر وفشلت في الكشف عن هذه المخاطر لعملائها.

ذكرت مجلة Wired أن نفس الشركة رفعت دعوى قضائية ضد المدون وكبار المسئولين الاقتصاديين Aaron Woll للكتابة عن الحظر.

أكد Matt Cutts من Google لاحقًا أن Google في الواقع حظرت Traffic Power وبعض عملائها.

وصلت بعض محركات البحث أيضًا إلى صناعة تحسين محركات البحث ، وهي رعاة وضيوف متكررون في مؤتمرات تحسين محركات البحث ، ومحادثات الويب ، والندوات.

توفر محركات البحث الرئيسية معلومات وإرشادات للمساعدة في تحسين موقع الويب. توفر أدوات مشرفي المواقع من Bing طريقة لمشرفي المواقع لإرسال خريطة موقع وموجزات ويب ، وتسمح للمستخدمين بتحديد “معدل الزحف” وتتبع حالة فهرس صفحات الويب.

العلاقة مع جوجل

في عام 1998 ، قام اثنان من طلاب الدراسات العليا في جامعة ستانفورد ، وهما لاري بيدج وسيرجي برين ، بتطوير “Backrub” ، وهو محرك بحث يعتمد على خوارزمية رياضية لتقييم أهمية صفحات الويب. الرقم الذي تحسبه الخوارزمية ، PageRank ، هو دالة لكمية وقوة الروابط الواردة.

يقدّر نظام ترتيب الصفحات احتمال وصول مستخدم ويب إلى صفحة معينة يتصفح الويب بشكل عشوائي ويتبع الروابط من صفحة إلى أخرى. في الواقع ، هذا يعني أن بعض الروابط أقوى من غيرها ، حيث من المرجح أن يتم الوصول إلى صفحة أعلى في نظام ترتيب الصفحات بواسطة متصفحي الويب العشوائي.

تم أخذ العوامل خارج الصفحة في الاعتبار بالإضافة إلى العوامل الموجودة على الصفحة لتمكين Google من تجنب نوع التلاعب الذي شوهد في محركات البحث التي تأخذ بعين الاعتبار العوامل الموجودة على الصفحة لترتيبها فقط. على الرغم من أن لعبة PageRank كانت أكثر صعوبة في اللعب ، إلا أن مشرفي المواقع قد طوروا بالفعل أدوات ومخططات لبناء الروابط للتأثير على محرك بحث Inktomi.

وقد ثبت أن هذه الأساليب قابلة للتطبيق بشكل مشابه على ألعاب PageRank. ركزت العديد من المواقع على تبادل الروابط وشرائها وبيعها ، غالبًا على نطاق واسع. تضمنت بعض هذه المخططات ، أو مزارع الروابط ، إنشاء آلاف المواقع لغرض وحيد هو إرسال الروابط غير المرغوب فيها.


بحلول عام 2004 ، كانت محركات البحث قد أدرجت مجموعة واسعة من العوامل غير المفصح عنها في خوارزميات التصنيف الخاصة بها لتقليل تأثير التلاعب بالرابط.

في يونيو 2007 ، ذكر Saul Hansel من صحيفة نيويورك تايمز أن Google تصنف المواقع باستخدام أكثر من 200 إشارة مختلفة. لا تكشف محركات البحث الرائدة ، Google و Bing و Yahoo ، عن الخوارزميات التي يستخدمونها لتصنيف الصفحات.

درس بعض ممارسي تحسين محركات البحث أساليب مختلفة لتحسين محركات البحث ، وشاركوا بآرائهم الشخصية. يمكن أن توفر براءات الاختراع المتعلقة بمحركات البحث معلومات لفهم محركات البحث بشكل أفضل. في عام 2005 ، بدأت Google في تخصيص نتائج البحث لكل مستخدم. بناءً على سجل عمليات البحث السابقة ، أعدت Google نتائج للمستخدمين الذين قاموا بتسجيل الدخول.


في عام 2007 ، أعلنت Google عن حملة ضد الروابط المدفوعة التي تنقل نظام ترتيب الصفحات. في 15 يونيو 2009 ، كشفت Google عن أنها اتخذت تدابير للتخفيف من آثار نحت نظام ترتيب الصفحات باستخدام سمة Nofollow على الروابط.

أعلن Matt Cutts ، مهندس برمجيات معروف في Google ، أن Google Bot لن يتعامل بعد الآن مع أي روابط عدم متابعة ، بالطريقة نفسها ، لمنع مزودي خدمة تحسين محركات البحث من استخدام nofollow لنحت PageRank. نتيجة لهذا التغيير ، أدى استخدام nofollow إلى تبخر PageRank.

من أجل تجنب ما سبق ، طور مهندسو تحسين محركات البحث تقنيات بديلة تحل محل العلامات no followed بجافا سكريبت المبهمة وبالتالي تسمح بنحت PageRank. بالإضافة إلى ذلك ، تم اقتراح العديد من الحلول التي تشمل استخدام إطارات iframe و Flash و JavaScript.


في ديسمبر 2009 ، أعلنت Google أنها ستستخدم سجل بحث الويب لجميع مستخدميها من أجل نشر نتائج البحث.


في 8 يونيو 2010 ، تم الإعلان عن نظام فهرسة ويب جديد يسمى Google Caffeine. تم تصميم Google Caffeine للسماح للمستخدمين بالعثور على نتائج الأخبار ومشاركات المنتديات والمحتويات الأخرى في وقت أقرب بكثير بعد النشر من ذي قبل ، وكان Google Caffeine بمثابة تغيير للطريقة التي حدّثت بها Google فهرسها من أجل جعل الأشياء تظهر على Google بشكل أسرع من ذي قبل.

وفقًا لـ Carrie Grimes ، مهندسة البرامج التي أعلنت عن Caffeine لـ Google ، “يوفر Caffeine نتائج أحدث بنسبة 50 بالمائة لعمليات بحث الويب مقارنة بفهرسنا الأخير …” تم تقديم بحث Google الفوري ، وهو بحث في الوقت الفعلي ، في أواخر عام 2010 في محاولة جعل نتائج البحث في الوقت المناسب وذات صلة.

من الناحية التاريخية ، أمضى مسؤولو الموقع شهورًا أو حتى سنوات في تحسين موقع الويب لزيادة تصنيفات البحث. مع تزايد شعبية مواقع ومدونات الوسائط الاجتماعية ، قامت المحركات الرائدة بإجراء تغييرات على خوارزمياتها للسماح للمحتوى الجديد بالترتيب بسرعة ضمن نتائج البحث.


في فبراير 2011 ، أعلنت Google عن تحديث Panda ، والذي يعاقب المواقع التي تحتوي على محتوى مكرر من مواقع ومصادر أخرى.

تاريخيًا ، نسخت مواقع الويب المحتوى من بعضها البعض واستفادت من تصنيفات محركات البحث من خلال الانخراط في هذه الممارسة.

ومع ذلك ، نفذت Google نظامًا جديدًا يعاقب المواقع التي لا يكون محتواها فريدًا.

حاول برنامج Google Penguin لعام 2012 معاقبة مواقع الويب التي تستخدم تقنيات تلاعب لتحسين تصنيفها على محرك البحث. على الرغم من تقديم Google Penguin كخوارزمية تهدف إلى مكافحة البريد العشوائي على الويب ، إلا أنه يركز حقًا على الروابط غير المرغوب فيها من خلال قياس جودة المواقع التي تأتي منها الروابط.

تميز تحديث Google Hummingbird لعام 2013 بتغيير الخوارزمية المصمم لتحسين معالجة اللغة الطبيعية من Google والفهم الدلالي لصفحات الويب.

يندرج نظام معالجة اللغة في Hummingbird تحت المصطلح المعترف به حديثًا “بحث المحادثة” حيث يولي النظام مزيدًا من الاهتمام لكل كلمة في الاستعلام من أجل مطابقة الصفحات بشكل أفضل مع معنى الاستعلام بدلاً من بضع كلمات.

فيما يتعلق بالتغييرات التي تم إجراؤها على تحسين محرك البحث ، لناشري المحتوى وكتابه ، يهدف Hummingbird إلى حل المشكلات عن طريق التخلص من المحتوى غير ذي الصلة والرسائل غير المرغوب فيها ، مما يسمح لـ Google بإنتاج محتوى عالي الجودة والاعتماد عليهم ليكونوا مؤلفين “موثوقين” .

Advertisements


في أكتوبر 2019 ، أعلنت Google أنها ستبدأ في تطبيق نماذج BERT لاستعلامات البحث باللغة الإنجليزية في الولايات المتحدة. كانت تمثيلات التشفير ثنائية الاتجاه من Transformers محاولة أخرى من قِبل Google لتحسين معالجة اللغة الطبيعية ولكن هذه المرة من أجل فهم استعلامات البحث الخاصة بمستخدميها بشكل أفضل.

فيما يتعلق بـ تحسين محركات البحث ، تهدف BERT إلى توصيل المستخدمين بسهولة أكبر بالمحتوى ذي الصلة وزيادة جودة حركة المرور القادمة إلى مواقع الويب التي يتم تصنيفها على صفحة نتائج محرك البحث.


طُرق الفهرسة


تستخدم محركات البحث الرائدة ، مثل Google و Bing و Yahoo !، برامج الزحف للعثور على صفحات لنتائج البحث الخوارزمية الخاصة بهم. لا يلزم تقديم الصفحات المرتبطة من صفحات أخرى مفهرسة بمحرك البحث لأنه يتم العثور عليها تلقائيًا. ياهو! الدليل و DMOZ ، وهما دليلين رئيسيين تم إغلاقهما في 2014 و 2017 على التوالي ، يتطلب كلاهما تقديم يدوي ومراجعة تحريرية بشرية.


تقدم Google Search Console ، والتي يمكن من أجلها إنشاء موجز Sitemap بتنسيق XML وإرساله مجانًا لضمان العثور على جميع الصفحات ، خاصة الصفحات التي لا يمكن اكتشافها عن طريق اتباع الروابط تلقائيًا بالإضافة إلى وحدة التحكم في إرسال عناوين URL الخاصة بها. ياهو! كانت تدير سابقًا خدمة إرسال مدفوعة تضمن الزحف مقابل تكلفة النقرة ؛ ومع ذلك ، تم إيقاف هذه الممارسة في عام 2009.


قد تنظر برامج زحف محركات البحث في عدد من العوامل المختلفة عند الزحف إلى أحد المواقع. لا تتم فهرسة كل صفحة بواسطة محركات البحث. قد تكون مسافة الصفحات من الدليل الجذر للموقع أيضًا عاملاً في ما إذا كان يتم الزحف إلى الصفحات أم لا.


اليوم ، يبحث معظم الأشخاص على Google باستخدام جهاز محمول. في تشرين الثاني (نوفمبر) 2016 ، أعلنت Google عن تغيير كبير في طريقة الزحف إلى مواقع الويب وبدأت في جعل فهرسها للهاتف المحمول أولاً ، مما يعني أن إصدار الهاتف المحمول من موقع ويب معين يصبح نقطة البداية لما تدرجه Google في فهرسها وخطوة مهمة فى إطار تحسين محركات البحث.

في مايو 2019 ، قامت Google بتحديث محرك العرض الخاص بالزاحف الخاص بها ليكون أحدث إصدار من Chromium.

أشارت Google إلى أنها ستقوم بتحديث محرك عرض Chromium بانتظام إلى أحدث إصدار.

في ديسمبر 2019 ، بدأت Google في تحديث سلسلة User-Agent الخاصة بالزاحف الخاص بها لتعكس أحدث إصدار من Chrome تستخدمه خدمة العرض الخاصة بهم.

كان التأخير هو السماح لمشرفي المواقع بالوقت لتحديث التعليمات البرمجية الخاصة بهم والتي استجابت لسلاسل وكيل مستخدم bot معينة. أجرت Google التقييمات وشعرت بالثقة في أن التأثير سيكون طفيفًا.


منع الزحف لتحسين محركات البحث

لتجنب المحتوى غير المرغوب فيه في فهارس البحث ، يمكن لمشرفي المواقع توجيه العناكب بعدم الزحف إلى ملفات أو أدلة معينة من خلال ملف robots.txt القياسي في الدليل الجذر للنطاق. بالإضافة إلى ذلك ، يمكن استبعاد صفحة بشكل صريح من قاعدة بيانات محرك البحث باستخدام علامة وصفية خاصة بالروبوتات.

TamCode

عندما يزور محرك بحث أحد المواقع ، يكون ملف robots.txt الموجود في الدليل الجذر هو أول ملف يتم الزحف إليه. يتم بعد ذلك تحليل ملف robots.txt وسيوجه الروبوت إلى الصفحات التي لن يتم الزحف إليها. نظرًا لأن زاحف محرك البحث قد يحتفظ بنسخة مخبأة من هذا الملف ، فقد يقوم في بعض الأحيان بالزحف إلى صفحات لا يرغب مشرف الموقع في الزحف إليها.

تتضمن الصفحات التي يتم منع الزحف إليها عادةً صفحات خاصة بتسجيل الدخول مثل عربات التسوق والمحتوى الخاص بالمستخدم مثل نتائج البحث من عمليات البحث الداخلية.

في مارس 2007 ، حذرت Google مشرفي المواقع من أنه يجب عليهم منع فهرسة نتائج البحث الداخلية لأن هذه الصفحات تعتبر بحثًا غير مرغوب فيه.

في عام 2020 ، أعلنت Google عن المعيار وهي تتعامل معه الآن على أنه تلميح وليس توجيهًا. لضمان عدم فهرسة الصفحات ، يجب تضمين علامة وصفية لروبوت على مستوى الصفحة.
زيادة الشهرة


يمكن لمجموعة متنوعة من الأساليب أن تزيد من أهمية صفحة الويب ضمن نتائج البحث. قد يؤدي الارتباط المتقاطع بين صفحات نفس الموقع لتوفير المزيد من الروابط إلى الصفحات المهمة إلى تحسين محركات البحث.

يجعل تصميم الصفحة المستخدمين يثقون بالموقع ويريدون البقاء بمجرد العثور عليه.


عندما يرتد الأشخاص من موقع ما ، فإن ذلك يؤثر على الموقع ويؤثر على مصداقيتهم. نبسب ؛ إن كتابة المحتوى الذي يتضمن عبارات كلمات رئيسية يتم البحث عنها بشكل متكرر ، بحيث يكون وثيق الصلة بمجموعة متنوعة من استعلامات البحث ، سيؤدي إلى زيادة حركة المرور. ويمكنك الإطلاع على موضوع معدل الإرتداد ماهو وماهو الرقم الجيد

يمكن أن يؤدي تحديث المحتوى للحفاظ على عودة محركات البحث إلى الزحف بشكل متكرر إلى إعطاء وزن إضافي للموقع ويطلعك على كيفية تحسين محركات البحث.


ستؤدي إضافة كلمات رئيسية ذات صلة إلى البيانات الوصفية لصفحة الويب ، بما في ذلك علامة العنوان ووصف التعريف ، إلى تحسين ملاءمة قوائم البحث الخاصة بالموقع ، وبالتالي زيادة حركة المرور.

يمكن أن يساعد تحديد عنوان URL الأساسي لصفحات الويب التي يمكن الوصول إليها عبر عناوين URL متعددة ، باستخدام عنصر الارتباط الأساسي أو عبر عمليات إعادة التوجيه 301 ، في التأكد من احتساب الروابط المؤدية إلى إصدارات مختلفة من عنوان URL في درجة شعبية رابط الصفحة.

تُعرف هذه الروابط باسم الروابط الواردة ، والتي تشير إلى عنوان URL ويمكن الاعتماد عليها في درجة شعبية رابط الصفحة ، مما يؤثر على مصداقية موقع الويب.

تميل white hats إلى إنتاج نتائج تدوم لفترة طويلة ، في حين تتوقع black hats أن مواقعهم قد يتم حظرها في النهاية إما بشكل مؤقت أو دائم بمجرد اكتشاف محركات البحث لما تفعله.

تعتبر تقنية تحسين محركات البحث (SEO) بمثابة قبعة بيضاء إذا كانت تتوافق مع إرشادات محركات البحث ولا تتضمن أي خداع. نظرًا لأن إرشادات محرك البحث ليست مكتوبة كسلسلة من القواعد أو الوصايا ، فإن هذا تمييز مهم يجب ملاحظته. لا يتعلق الأمر بـ White hat SEO باتباع الإرشادات فحسب ، بل يتعلق أيضًا بضمان أن المحتوى الذي يقوم محرك البحث بفهرسته ثم يصنفه لاحقًا هو نفس المحتوى الذي سيراه المستخدم.

يتم تلخيص نصيحة القبعة البيضاء عمومًا على أنها إنشاء محتوى للمستخدمين ، وليس لمحركات البحث ، ثم جعل هذا المحتوى سهل الوصول إليه من خلال خوارزميات “العنكبوت” على الإنترنت ، بدلاً من محاولة خداع الخوارزمية من الغرض المقصود منها. يشبه White hat SEO من نواح كثيرة تطوير الويب الذي يعزز إمكانية الوصول ، على الرغم من أن الاثنين غير متطابقين.


تحاول Black hat SEO تحسين التصنيفات بطرق لا توافق عليها محركات البحث ، أو تنطوي على خداع. تستخدم إحدى تقنيات القبعة السوداء نصًا مخفيًا ، إما كنص ملون مشابه للخلفية ، في عنصر div غير مرئي ، أو موضوع خارج الشاشة.

هناك طريقة أخرى تعطي صفحة مختلفة اعتمادًا على ما إذا كانت الصفحة مطلوبة من قِبل زائر بشري أو محرك بحث ، وهي تقنية تُعرف باسم إخفاء الهوية. فئة أخرى تستخدم في بعض الأحيان هي قبعة رمادية SEO.

يقع هذا بين نهج القبعة السوداء والقبعة البيضاء ، حيث تتجنب الأساليب المستخدمة معاقبة الموقع ولكنها لا تعمل على إنتاج أفضل محتوى للمستخدمين. تركز Gray hat SEO بشكل كامل على تحسين تصنيفات محرك البحث.


قد تعاقب محركات البحث المواقع التي يكتشفونها باستخدام أساليب القبعة السوداء أو الرمادية ، إما عن طريق تقليل تصنيفاتها أو حذف قوائمها من قواعد بياناتها تمامًا.

يمكن تطبيق هذه العقوبات إما تلقائيًا عن طريق خوارزميات محركات البحث ، أو عن طريق مراجعة الموقع يدويًا. أحد الأمثلة على ذلك هو إزالة Google في فبراير 2006 لكل من BMW Germany و Ricoh Germany لاستخدامها ممارسات خادعة. ومع ذلك ، اعتذرت الشركتان بسرعة ، وأصلحت الصفحات المسيئة ، وتمت إعادتها إلى صفحة نتائج محرك بحث Google.


إستراتيجية تسويق


لا تعد مُحسّنات محرّكات البحث استراتيجية مناسبة لكل موقع ويب ، ويمكن أن تكون استراتيجيات التسويق عبر الإنترنت الأخرى أكثر فاعلية ، مثل الإعلانات المدفوعة من خلال حملات الدفع لكل نقرة ، اعتمادًا على أهداف مشغل الموقع. التسويق عبر محركات البحث هو ممارسة تصميم الحملات الإعلانية عبر محرك البحث وتشغيلها وتحسينها.

يتم وصف اختلافها عن مُحسّنات محرّكات البحث ببساطة على أنه الفرق بين ترتيب الأولوية المدفوعة وغير المدفوعة في نتائج البحث. يركز SEM على الشهرة أكثر من الأهمية.

يجب على مطوري مواقع الويب اعتبار التسويق عبر محرك البحث (SEM) في غاية الأهمية مع مراعاة الرؤية حيث ينتقل معظمهم إلى القوائم الأساسية لبحثهم.

قد تعتمد حملة التسويق عبر الإنترنت الناجحة أيضًا على إنشاء صفحات ويب عالية الجودة لإشراك مستخدمي الإنترنت وإقناعهم ، وإعداد برامج تحليلات لتمكين مالكي المواقع من قياس النتائج ، وتحسين معدل التحويل للموقع.

في السنوات الأخيرة ، انتشر سوق الهاتف المحمول ، متجاوزًا استخدام أجهزة الكمبيوتر المكتبية ، كما هو موضح في StatCounter في أكتوبر 2016 حيث قاموا بتحليل 2.5 مليون موقع ووجدوا أن 51.3٪ من الصفحات تم تحميلها بواسطة جهاز محمول.

كانت Google واحدة من الشركات التي تستخدم شعبية استخدام الأجهزة المحمولة من خلال تشجيع مواقع الويب على استخدام Google Search Console ، وهو اختبار التوافق مع الأجهزة المحمولة

والذي يسمح للشركات بقياس موقعها على الويب وفقًا لنتائج محرك البحث وتحديد مدى سهولة الاستخدام مواقعهم. كلما اقتربت الكلمات الرئيسية من بعضها ، ستتوصل إلى كيفية تحسين محركات البحث والوصول للكلمات الرئيسية.

يمكن لمحركات rch تغيير الخوارزميات الخاصة بها ، مما يؤثر على تصنيف محرك بحث موقع الويب ، مما قد يؤدي إلى خسارة كبيرة في حركة المرور.

وفقًا للرئيس التنفيذي لشركة Google ، إريك شميدت ، في عام 2010 ، أجرت Google أكثر من 500 تغيير في الخوارزمية – ما يقرب من 1.5 يوميًا. تعتبر ممارسة تجارية حكيمة لمشغلي مواقع الويب لتحرير أنفسهم من الاعتماد على حركة مرور محرك البحث. بالإضافة إلى إمكانية الوصول من حيث برامج زحف الويب ، أصبحت إمكانية الوصول إلى الويب للمستخدم مهمة بشكل متزايد لتحسين محركات البحث.

الأسواق الدولية

  • يتم ضبط تقنيات التحسين بشكل كبير مع محركات البحث المهيمنة في السوق المستهدفة.
  • تختلف حصص محركات البحث في السوق من سوق إلى آخر ، وكذلك المنافسة.

اعتبارًا من عام 2006 ، كانت Google تمتلك 85-90٪ من حصة السوق في ألمانيا. بينما كان هناك المئات من شركات تحسين محركات البحث في الولايات المتحدة في ذلك الوقت ، كان هناك حوالي خمس شركات فقط في ألمانيا. يتم تحقيق تلك الحصة السوقية في عدد من البلدان.


اعتبارًا من عام 2009 ، لا يوجد سوى عدد قليل من الأسواق الكبيرة حيث لا يعتبر Google محرك البحث الرائد. في معظم الحالات ، عندما لا تكون Google رائدة في سوق معين ، فإنها تتخلف عن أحد اللاعبين المحليين. أبرز أسواق الأمثلة هي الصين واليابان وكوريا الجنوبية وروسيا وجمهورية التشيك حيث بايدو وياهو على التوالي. تعد اليابان و Naver و Yandex و Seznam من رواد السوق.


قد يتطلب تحسين محركات البحث الناجح للأسواق الدولية ترجمة احترافية لصفحات الويب وتسجيل اسم المجال بنطاق عالي المستوى في السوق المستهدفة واستضافة الويب التي توفر عنوان IP محليًا. خلاف ذلك ، فإن العناصر الأساسية لتحسين البحث هي نفسها بشكل أساسي ، بغض النظر عن اللغة.

نرجو أن نكون وفقنا فى هذا المقال

Similar Posts