آموزش کامل سئو | راهنمای جامع صفر تا صد سئو سایت
راهنمای جامع سئو به زبان ساده
اگر می خواهید یادگیری سئو را شروع کنید، جای درستی آمده اید.این راهنمای سئو، متشکل از دوازده فصل است که همه چیزهایی را که برای درک اصول سئو و شروع به رتبه بندی بالاتر نیاز دارید را ارائه می دهد. برای دریافت بازخورد بهتر پیشنهاد می کنم که صرفا به خواندن مطالب اکتفا نکنید و تمرینات عملی را نیز در کنار آن انجام دهید. سوالات سئو خود را می توانید در پایین هر مطلب در بخش سوالات و نظرات کاربران از ما بپرسید، ما به تمام سوالات شما پاسخ می دهیم.
Ξ فصل اول: نحوه عملکرد گوگل
Ξ فصل دوم: کلمات کلیدی در سئو
Ξ فصل سوم: سئو داخلی سایت
Ξ فصل چهارم: آموزش کامل لینک سازی ، چطور در بالاترین رتبه گوگل قرار بگیرید؟
Ξ فصل پنجم: شبکه های اجتماعی و سئو، آیا شبکه های اجتماعی برای سئو مهم است؟
Ξ فصل ششم: نحوه آنالیز سایت، معرفی کامل ابزارهای بررسی سایت
Ξ فصل هفتم: سئوی محلی، چرا از سئوی محلی استفاده کنیم؟
Ξ فصل هشتم: عیب یابی مشکلات رایج سئو و نحوه برطرف کردن آنها
Ξ فصل نهم: چگونگی تسلط بر جست و جو با RICH SNIPPETS
Ξ فصل دهم: ابزارهای قدرتمند سئو، ابزارهایی که هر سئوکار باید بشناسد
Ξ فصل یازدهم: مهمترین الگوریتم های گوگل برای سئو
Ξ فصل دوازدهم: راهنمایی جامع پرداخت کلیکی
دسترسی سریع به محتوا (برای مشاهده هر بخش بر روی آن کلیک کنید)
سئو چیست؟
SEO، یک روند مناسب برای بهبود دید یک وب سایت یا یک صفحه وب در نتایج یک موتور جستجو است. معمولا وب سایتهایی که بالاترین مکان و بیشترین تکرار در صفحه نتایج جستجو را دارند، بازدید کننده بیشتری از طریق موتورهای جستجو بدست میآوردند . سئو یک سایت شامل موارد زیادی می شود که توسط موتور های جستجو بررسی و بازبینی می شود.
به عنوان یک بازاریاب محتوا ، «سئو» به چگونگی کارکردن موتورهای جستجو و اینکه چه چیزی جستجو میشود، رسیدگی میکند و همینطور کلمات کلیدی تایپ شده و اینکه کدام یک از موتورهای جستجو توسط مخاطبان مورد توجه قرار میگیرد را مورد بررسی قرار میدهد. بهینهسازی وب سایت شامل توسعه مطالب موجود در خود سایت و html و برنامهنویسی مربوط به هر دو و همچنین ارتباط بین کلمات کلیدی و حذف موانع مربوط به فعالیتهای نمایه سازی در موتور جستجو و ترویج یک سایت برای افزایش تعداد لینک دهنده و یا لینکهای ورودی، از دیگر تاکتیکهای جستجوگرها است.
«سئو» به معنی بهینهسازی سایت ، برای موتورهای جستجو است .
سئو یعنی مجموعه فرایندهایی که در داخل و خارج از سایتمان انجام می دهیم، به شکلی که هنگام جست وجوی مخاطب، لینک صفحه های وب سایت ما در نتایج موتورهای جست وجو برای عبارت هایی که انتخاب کرده ایم یا با موضوع فعالیت ما متناسب است، در جایگاه بالاتری قرار بگیرد.
در نگاه اول این تعریف کمی پیچیده به نظر میرسد؛ اما اگر دقت کنید نکات مختلفی در همین تعریف کوتاه گنجانده شده است:
✔️ اول اینکه سئو فقط روی سایت نیست. بیرون از سایت هم مجموعه ای از فعالیت ها باید انجام شود تا بتوانیم بگوییم سئو کرده ایم.
✔️ دوم اینکه سئو الزاماً رتبه یک نتایج جست وجو نیست؛ هر کاری را که منجر به ارتقای رتبه لینک صفحه های ما در نتایج جست وجو باشد سئو محسوب می کنیم. البته، می دانیم که جایگاه ده بهتر از جایگاه یازده است و جایگاه سه بهتر از جایگاه ده و جایگاه یک معمولاً بهتر از هر جایگاه دیگری است. واژهٔ "معمولاً" را به کار بردم زیرا حتی در صورتی که در جایگاه دو سه یا چهار باشیم، دیده می شویم؛ اما اگر از Brand Awareness (آگاهی از برند) خوبی برخوردار باشیم مخاطب سابقهٔ ذهنی مناسبی از ما داشته باشد یا از عنوان مناسب تری استفاده کرده باشیم و مواردی از این دست، لینک صفحه های وب سایت ما کلیک مناسب تری دریافت می کند.
✔️ سوم اینکه مجموعه ای از واژه ها یا عبارت های کلیدی ای وجود دارد که علاقه مندیم در نتایج جست وجوی عبارت ها ، صفحه های سایت ما نمایش داده شود. این واژه ها یا متناسب با کسب و کار ما هستند یا ویژگی خاصی مانند قابلیت تبدیل شدن به سرنخ یا مشتری در سایت ما را دارند؛ در واقع عبارت هایی که نرخ تبدیل بهتری دارند. می دانیم که آوردن هر بازدید کننده ای به سایت سئو نیست و در این تعریف به طور مشخص بر این اصل تأکید شده است.
✔️ چهارم اینکه مهم است که مخاطبان این عبارت ها را جست وجو کنند. اینکه عبارت هایی انتخاب شوند یا در نتیجه جست وجو برای عبارت هایی جایگاه مناسبی داشته باشیم که مردم یا مخاطبان اصلاً جست وجو نمی کنند سئو نیست.
تاریخچه سئو
از اواسط دهه ۱۹۹۰ میلادی که نخستین موتورهای جستجو اقدام به فهرست کردن وب نخستین کردند، مدیران وب سایتها و تولیدکنندگان محتوا، شروع به بهینهسازی سایتها برای موتورهای جستجو نمودند. در ابتدا تمام کارهایی که مدیران وب سایتها باید انجام میدادند، ارسال آدرس صفحه به موتورهای مختلفی که یک spider جهت «بازبینی» آن صفحه میفرستادند، که شامل استخراج لینکهای صفحه به سایر صفحات از درون صفحه، و بازگرداندن اطلاعات یافت شده در صفحه جهت ایندکس شدن بود. فرایند به این صورت است که spider موتور جستجو، یک صفحه را دانلود و آنرا در سرور موتور جستجو ذخیره میکند و یک برنامه دیگر موسوم به ایندکس کننده، اطلاعات مختلفی را درباره صفحه استخراج میکند؛ اطلاعاتی از قبیل واژههای موجود و محل قرارگیری آنها در صفحه، و نیز وزن خاص واژههای بخصوص، و تمام لینکهای موجود در صفحه، که سپس جهت خزش در زمانی دیگر، در دستور کار قرار میگیرد.
مدیران سایتها شروع به بازشناسی ارزش رتبه بالای سایت خود و در دید قرارگرفتن آن در نتایج موتورهای جستجو نمودند که این امر، فرصتی را برای هکرهای غیر مخرب و مخرب شاغل در بخش بهینهسازی موتور جستجو مهیا کرد.
نسخههای اولیه الگوریتمهای جستجو به اطلاعات فراهم شده توسط مدیران وب سایتها نظیر متا تگ واژههای کلیدی، یا فایل ایندکس موتورهای جستجو مانند ALIWEB اعتماد و اتکا میکردند. متاتگها یک راهنمایی برای محتوای هر صفحه فراهم میکنند. با اینحال، استفاده از دادههای متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط وب سایتها، بالقوه میتواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. دادههای نادرست، ناقص و ناسازگار در متا تگها میتواند موجب رتبهبندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدکنندگان محتوای اینترنت همچنین تعدادی از ویژگیهای منبع HTML یک صفحه را دستکاری کردند تا رتبه صفحه را در موتورهای جستجو بهبود بدهند.
با تأکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبهبندی رنج میبردند. به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پر شدهاند.
از آنجایی که موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص میشود، کیفیت پایین یا نتایج نامرتبط میتواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود. موتورهای جستجو با توسعه الگوریتمی رتبهبندی پیچیدهتر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار میگیرند و دستکاری را برای مدیران شبکه، سختتر میسازند. لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یک موتور جستجو موسوم به بکروب را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگاریتم ریاضیاتی تکیه داشت. عددی که توسط الگوریتم محاسبه میشد، یعنی «رتبه صفحه»، تابعی است از مقدار و قدرت لینکهای ورودی. رتبه صفحه میزان یک صفحه معین را که توسط یک کاربر که بصورت تصادفی شبکه را جستجو میکند مورد دسترسی قرار گرفته، تخمین میزند و لینکهای یک صفحه به صفحه دیگر را دنبال میکند. در واقع، این بدان معناست که برخی لینکها از سایر لینکها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش میدهد.
انواع موتورهای جست و جو
نکته ای فرعی هم وجود دارد اینکه در یک نگاه دو نوع موتور جست وجو داریم: موتورهای جستوجوی عام و موتورهای جست وجوی خاص. در هر دو، سئو معنا دارد . موتورهای جست وجوی خاص آنهایی هستند که افراد برای جست وجوی موضوعات خاص استفاده می کنند مثلاً وب سایت یا اپلیکیشن شیپور یا دیوار را در نظر بگیرید این دو فارغ از اینکه یک پلتفرم یا بستر آگهی و نیازمندی هستند، از یک منظر موتور جست وجوی خاص هستند، چراکه اگر بخواهیم ماشین بخریم یا خانه اجاره کنیم احتمالاً در گوگل جست وجو نمی کنیم یا اگر در گوگل جست و جو کنیم، ادامه جست وجویی که منجر به خرید احتمالی شود، در داخل این موتورهای جست وجوی خاص انجام می شود. مثال دیگر آپارات است از یک سو آپارات پلتفرم یا بستر به اشتراک گذاری ویدئوست و از سوی دیگر نوعی شبکه اجتماعی است (آپارات تمام ویژگیهای یک شبکه اجتماعی را دارد و یک شبکه اجتماعی است حتی اگر شما به آن به چشم یک شبکه اجتماعی نگاه نکنید.). در عین حال آپارات نوعی موتور جست وجوی خاص نیز هست. در بسیاری از موارد ما حتی گوگل را باز نمی کنیم مستقیم وارد آپارات می شویم و موضوعی را که به دنبالش هستیم در آپارات جست وجو می کنیم؛ یعنی اگر به دنبال پاسخ ویدئویی برای پرسشمان باشیم یا به دنبال ویدئوی خاصی بگردیم مستقیم وارد آپارات می شویم و جست وجو می کنیم.
به عنوان یک نمونه دیگر شاید بد نباشد به دیجی کالا توجه کنیم. از یک نگاه دیجی کالا یک فروشگاه اینترنتی است که هم زمان هم بعد خرده فروشی یا Retail را دارد و هم بعد بازارگاه یا مارکت پلیس. البته می دانیم که عملاً دیجی کالا یک موتور جست وجوی خاص هم هست. در خیلی از مواقع ما وارد گوگل نمی شویم مستقیم وارد دیجی کالا میشویم و کالا یا محصولی که می خواهیم را در آن جست وجو می کنیم، حتی در بسیاری از موارد قصد خرید نداریم و تنها میخواهیم اطلاعاتی درباره یک محصول به دست بیاوریم و از دیجی کالا استفاده می کنیم. طولانی می شود ولی باز هم دوست دارم اشاره کنم که اتفاقاً ما موتورهای جست وجوی خاص زیادی داریم و اتفاقاً موفقیت استارتاپها در حوزه موتورهای جست وجوی خاص بسیار محتمل تر از موفقیت در حوزهٔ موتورهای جست وجوی عام است؛ مثلاً ایسام را نگاه کنید، آنهایی که دنبال محصولات خاص مثل عتیقه، تمبر، محصولات مزایده ای و مانند آن هستند و ایسام را میشناسند، در گوگل به دنبال مثلاً تمبر نمی گردند، چون می دانند نهایتاً چند صفحه اطلاعات کلی دربارهٔ تمبر در گوگل پیدا می کنند، اما در ایسام فروشندگان تمبرهای خاص را می توانند پیدا کنند یا به ترب یا ایمالز نگاه کنید، اینها موتور جست وجوی مقایسه قیمت و انتخاب هستند.
طبق تعریف بالا، آنچه ما به آن سئو می گوییم حتی می تواند به مجموعه کارهای ما برای بهتر یا بالاتر دیده شدن محصول، خدمت، لینک یا ویدئوی ما در این موتورهای جست وجوی خاص هم گفته شود. البته واقعیت این است که در گفتگوهای عمومی و حوزه بازاریابی دیجیتال، اغلب وقتی از سئو صحبت می کنیم، بهبود جایگاه لینک صفحه های سایتمان در موتورهای جست وجوی عام مانند گوگل ،بینگ، یاهو و مانند آن منظور ماست. اما آنچه ما اغلب در کتابها و مطالب و مقاله های مرتبط با سئو می خوانیم، درباره موتورهای جست وجوی عام است و به صورت مشخص، از آنجا که بخش قابل توجهی از جست وجوهای کاربران اینترنت در گوگل انجام می شود، معمولاً وقتی درباره سئو صحبت می کنیم، منظورمان فرایندهایی است که در نتیجه اجرای آنها رتبه یا جایگاه نمایش صفحه های سایت ما در جست وجوهای مخاطبان در این موتور های جست وجو ارتقا پیدا کند.
همه افراد فعال در این زمینه می دانند که سئو موضوعی پرچالش است، گوگل کدها و الگوریتم های خود را نمی گوید و تمام آموزش ها و موارد حدسیات و فرضیات متخصصان سئو است که بر اساس آزمایش های سئو و توییت های گوگل نتیجه گیری می شود. معمولاً فرایند آزمایش های سئو زمانبر است و ممکن است حتی چند ماه طول بکشند، مشکل آنجاست که گوگل دائماً در حال تغییر روش مرتب کردن نتایج و به روزرسانی مداوم الگوریتم های مرتب سازی نتایج است و ممکن است در طول زمانی که در حال آزمودن احتمالات مطرح شده هستیم، تغییری در الگوریتم های گوگل اتفاق بیفتد، عملاً راهکارهای پیشین را بی اثر می کند.
اهمیت سئو برای توسعه کسب و کار
بطور کلی، سئو فرایندی بسیار گسترده است این گستردگی باعث می شود نتوان تعریف یا برنامه دقیقی برای آن ارائه داد. هر متخصص و کارشناس سئو می تواند با توجه به تجربه شخصی خود تعریف یا برنامه اجرایی متفاوتی ارائه دهد. امروزه تقریباً همۀ کسب و کارها برای شکوفایی خود به سئو یا بهینه سازی موتور جست وجو نیاز دارند چراکه این روش یکی از بادوام ترین و در بسیاری از موارد در بلندمدت، مقرون به صرفه ترین شیوه برای جذب مشتریان جدید و جلب توجه آن هاست. اهمیت سئو در کسب و کارهای آنلاین و تجارت الکترونیک بر کسی پوشیده نیست و روزبه روز اهمیت آن بیشتر هم می شود، زیرا با افزایش شدید حضور کسب و کارها در فضای دیجیتال دیده شدن و در معرض دید قرار گرفتن به یک نیاز جدی تبدیل شده است. در کنار افزایش ترافیک مرتبط برای سایت ها، افزایش اعتماد بازدیدکنندگان، باعث اثرگذاری بیشتر بر مخاطبان نسبت به سایر ابزارهای دیجیتال می شود.
اجرای درست و اصولی فرایندهای سئو بر روی وب سایت کسب و کارها برای هر برندی الزامی است. کاربران در موتورهای جست وجو به دنبال یافتن پاسخ پرسشهایشان هستند. سایتی می تواند موفق تر باشد که بهترین، مرتبط ترین، کاربردی ترین و دقیق ترین پاسخ را به مخاطب ارائه دهد. به همین دلیل سئو با بحث محتوا ارتباطی تنگانگ دارد. کسانی در این رقابت پیروز خواهند بود که علاوه بر تسلط بر اصول تکنیکال سئو ، روی تولید محتوای کاربردی و پاسخگویی به نیاز مخاطب تمرکز کنند.
ارتباط با گوگل ( Relationship With Google)
پیچ و برین، گوگل را در سال ۱۹۹۸ بنیانگذاری کردند. گوگل درمیان کاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب کرد که طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژههای کلیدی، متاتگها، عنوانها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده میشود که تنها به عوامل داخل صفحه توجه میکنند، اجتناب نماید. علیرغم اینکه به بازی گرفتن رتبه صفحه سختتر بود، مدیران شبکه سرانجام ابزارها و طرحهای تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی اینکتومی توسعه دادند، و این روشها ثابت کردند که به طریقی مشابه میتوان رتبه صفحه را تحت تأثیر قرار داد. بسیاری از وب سایتها روی تبادل، خرید و فروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرحها یا مزارع لینک، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینکها میشوند.
Google Instant ، یا جستجوی در لحظه ، در اواخر سال ۲۰۱۰ در تلاشی به منظور بههنگامتر و مرتبط نمودن جستجوها ارائه شد. از نظر زمانی ، ادمینهای وب سایتها، ماهها و یا حتی سالها روی بهینهسازی یک وب سایت و ارتقای رتبه جستجوی آن زمان گذاشتهاند. با گسترش عمومیت وب سایتها و وبلاگهای رسانههای اجتماعی، موتورهای جستجوی پیشرفته در الگوریتمهای خود تغییراتی ایجاد کردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبهبندی شوند.
در فوریه ۲۰۱۱، از آپدیت پاندا خبر داد که وب سایتهایی را که حاوی محتوای تکثیر شده (کپی شده ) از وب سایتها و منابع دیگر باشند، جریمه میکند. با این حال، گوگل یک سیستم جدید پیادهسازی کرد که سایتهایی را که حاوی محتوای منحصر به فرد نیستند، جریمه میکند.
در آوریل ۲۰۱۲، گوگل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب سایتهایی بود که از روشهای دستکاری جهت بهبود رتبه خود در موتورهای جستجو استفاده میکردند.
در سپتامبر ۲۰۱۳، کمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی کرد؛ یک الگوریتم که جهت بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب طراحی شد.
در سپتامبر سال ۲۰۱۶، گوگل اعلام کرد که گوگل پنگوئن به الگوریتم اصلی رتبهبندی گوگل ملحق شده است و دیگر آپدیتهای آن اعلام نمیشود. از سال ۲۰۱۶ به بعد، الگوریتم پنگوئن گوگل دیگر به صورت لحظهای نتایج جستجو را بررسی خواهد کرد.
ارتباط با موتورهای جستجو
تا سال ۱۹۹۷، طراحان موتورهای جستجو دریافتند که مدیران وب سایتها تلاش میکنند که در موتورهای جستجوی آنها رتبه بهتری داشته باشند. آنان همچنین متوجه شدند که برخی از مدیران وب، حتی رتبههای خود در نتایج جستجو را از طریق لبریز نمودن صفحات خود با واژگان کلیدی بسیار زیاد یا نامرتبط، دستکاری میکردند. موتورهای جستجوی اولیه، نظیر آلتا ویستا یا اینفوسیک، الگوریتمهای خود را جهت جلوگیری مدیران وب در دستکاری رتبهها، مجدداً سازگار کردند.
در سال ۲۰۰۵، یک کنفرانس سالانه موسوم به بازیابی اطلاعات خصمانه در وب (AIRWeb) تا شاغلان و محققان مرتبط با موتورهای جستجو و بهینهسازی آن را به هم مرتبط سازد.
فهرستشدن ( Getting indesed )
موتورهای جستجو از الگوریتمهای ریاضیاتی پیچیدهای استفاده میکنند تا وب سایتهای مورد جستجوی کاربر را حدس بزنند. در این نمودار، اگر هر حباب نشان دهنده یک وب سایت باشد، برنامههایی که گاهی عنکبوت نامیده میشوند، بررسی میکنند که کدام سایتها به کدام سایتهای دیگر لینک شدهاند که آنرا با فلشهایی که بیانگر این امر است، نمایش میدهد. وب سایتهایی که لینکهای ورودی بیشتر یا لینکهای قوی تری میگیرند، فرض میشود که مهمتر باشند و همان چیزی مفروض میشوند که کاربر، جستجو میکند. در این مثال، چون وب سایت B تعداد زیادی لینک ورودی دریافت میکند، در رتبه بالاتری در یک جستجوی وب قرار میگیرد؛ و لینکهای مکمل مانند وب سایت C، علیرغم اینکه فقط یک لینک ورودی دارد، یک لینک ورودی از یک سایت بسیار محبوب (B) دارد؛ در حالیکه سایت E چنین لینکی ندارد. توجه: درصدها گرد شدهاند.
موتورهای جستجوی پیشرو مانند جستجوگر گوگل، بینگ، یاهو! جستجو از خزندهها جهت پیدا کردن صفحات مرتبط با نتایج جستجوی الگوریتمیک خود استفاده میکنند. صفحاتی که از صفحات ایندکس شده یک موتور جستجوی دیگر لینک میشوند، نیازی به ارسال ندارد زیرا بطور خودکار پیدا میشوند.
دو دایرکتوری عمده یاهو دایرکتوری، DMOZ نیازمند ارسال دستی و بازنگری انسانی هستند. شرکت گوگل Google Webmaster Tools را پیشنهاد میدهد که یک فید XML Sitemap میتواند برای آن ایجاد و بطور رایگان ارسال شود تا این اطمینان حاصل شود که تمامی صفحات خصوصاً آنهایی که با دنبال کردن خودکار لینکها قابل شناسایی نیستند، قابل دستیابی هستند. در گذشته یاهو! یک سرویس ارسال پرداختی داشت که خزش را به ازای مقداری هزینه در هر کلیک تضمین میکرد که در سال ۲۰۰۹، این سرویس متوقف شد
خزندههای موتور جستجو میتوانند هنگام خزش یک وب سایت، به تعداد عوامل مختلفی توجه کنند. هر صفحهای توسط موتور جستجو ایندکس نمیشود. فاصله صفحات از دایرکتوری اساسی ممکن است یک عامل در خزش یا عدم خزش در صفحات باشد.
جلوگیری از خزش ( Preventing crawling )
به منظور جلوگیری از محتوای نامطلوب در ایندکسهای جستجو، مدیران شبکه میتوانند به عنکبوتها (به انگلیسی: Spider) دستور بدهند که فایلها یا دایرکتوریهای خاصی را درون فایل استاندارد robots.txt در دایرکتوری اصلی دامنه، مورد بررسی و خزش (به انگلیسی: Crawl) قرار ندهند. بعلاوه، یک صفحه میتواند صراحتاً از پایگاهدادهها مورد جستجو خارج شود که این عمل از طریق استفاده از متاتگهای مخصوص به رباتها صورت میگیرد. هنگامی که یک موتور جستجو از یک سایت بازدید میکند فایل robots.txt واقع در دایرکتوری اصلی، نخستین جایی است که مورد خزش قرار میگیرد. سپس فایل robots.txt تجزیه شده و به ربات دستور داده میشود که کدام صفحات نباید مورد بررسی و خزش قرار میگیرد. از آنجایی که خزنده موتور جستجو ممکن است که یک نسخه از این فایل را نگه دارد گاهی ممکن است که صفحاتی مورد خزش قرار میگیرند که مدیر شبکه تمایلی به آنها ندارد. بطور معمول، صفحاتی که از خزش خارج میشوند عبارتند از صفحات ورودی خاص مانند صفحات مربوط به کارتهای خرید و صفحات مربوط به محتوای شخصی کاربر نظیر نتایج جستجوی حاصل از جستجوهای داخلی. در مارس ۲۰۰۷، گوگل به مدیران شبکه هشدار داد که باید از ایندکس شدن نتایج جستجوی داخلی جلوگیری کنند زیرا این صفحات، هرزنامه جستجو هستند.
افزایش برتری ( Increasing prominence )
روشهای گوناگونی میتوانند برتری یک صفحه وب را در میان ننتایج جستجو افزایش دهند. لینک کردن متقابل صفحات یک وب سایت جهت فراهم نمودن لینکهای بیشتر به صفحات مهمتر، میتواند شانس در دید بودن آن را افزایش دهد. نوشتن محتوایی که شامل کلمات کلیدی باشد، به نحوی که متن حاصل، به طیف گستردهای از ورودیهای جستجو مرتبط باشد، میتواند سبب افزایش ترافیک شود. به روز رسانی محتوا بمنظور خزش مکرر توسط موتورهای جستجو میتواند یک وزن اضافی به سایت بدهد. اضافه نمودن کلمات کلیدی مرتبط با فرا دادههایی که یک صفحه وب شامل تگ عنوان و فرا توضیح، میتواند منجر به بهبود رابطه لیستهای جستجوی یک وب سایت و در نتیجه افزایش ترافیک شود. نرمالیزه کردن نشانی اینترنتی صفحات وب در دسترس نشانیهای اینترنتی متعدد، با استفاده از عنصر لینک متعارف یا از طریق ریدایرکتهای ۳۰۱، میتواند این اطمینان را فراهم آورد که لینک به نسخههای مختلف آدرس جهت محاسبه نمره محبوبیت لینک صفحه، مورد توجه و استفاده قرار میگیرد.
تکنیکهای کلاه سفید در مقابل تکنیکهای کلاه سیاه
تکنیکهای سئو میتوانند به دو گروه عمده طبقهبندی شوند: تکنیکهایی که موتورهای جستجو به عنوان بخشی از یک طراحی خوب توصیه میکنند، و تکنیکهایی که مورد تأیید موتورهای جستجو نیست. موتورهای جستجو تلاش میکنند که اثر دسته دوم را کاهش دهند هرز آگهیها از آن جمله هستند. مفسران صنعتی و شاغلانی که از این تکنیکهای سئو استفاده میکنند، آنها را به سئو کلاه سفید یا کلاه سیاه طبقهبندی کردهاند. تکنیکهای کلاه سفید تمایل به تولید نتایجی دارند که مدت زمان زیادی برقرار هستند، در حالیکه تکنیکهای کلاه سیاه پیش بینی میکنند که وب سایتهای آنها در نهایت ممکن است بطور موقت یا دائم توقف گردد؛ هنگامی که موتورهای جستجو سر از کارشان درآورند. یک تکنیک سئو کلاه سفید تلقی میشود، اگر از دستور العملهای موجود جستجو پیروی کرده و فریبی در کارش نباشد. از آنجاییکه دستورالعملهای موتور جستجو به عنوان مجموعهای از قوانین نوشته نشده است، این یک تمایز مهم و قابل توجه است.
تکنیک سئو کلاه سفید تنها درباره تبعیت از دستورالعملها نیست، اما در مورد حصول اطمینان از این امر است که محتوایی که یک موتور جستجو ایندکس کرده و سپس رتبهبندی میکند، مشابه همان محتوایی باشد که یک کاربر خواهد دید. مشاوره کلاه سفید در مجموع جهت ایجاد محتوا برای کاربران مورد استفاده قرار میگیرد، نه برای موتورهای جستجو. سپس، آن محتوا به جای تلاش جهت تحریک نمودن الگوریتم و فریب دادن آن از اهداف مورد نظر خود، به سادگی در دسترس عنکبوتها قرار میگیرد. تکنیکهای کلاه سفید در بسیاری جهات شبیه توسعه وب هستند که در دسترس بودن را ارتقاء میدهد؛ هرچند که این دو یکسان نیستند.
تکنیکهای سئو کلاه سیاه تلاش میکنند تا رتبهبندی را از طریق فریب از روشها و راههایی که مورد تأیید موتور جستجو نیست، بهبود دهند. یک تکنیک کلاه سیاه از متن پنهان شده به عنوان متن رنگ آمیز شده مشابه با پس زمینه یک div نامرئی، یا بعنوان متنی در خارج از صفحه نمایش استفاده میکنند. تکنیک دیگر، تکنیکی موسوم به کلاکینگ است که بسته به اینکه یک صفحه توسط بازدید کننده انسانی فراخوانی شود یا توسط یک موتور جستجو، صفحه متفاوتی را بدست میدهد.
دسته دیگری که گاهی مورد استفاده قرار میگیرد، سئو کلاه خاکستری است. این تکنیک بین کلاه سفید و سیاه است که از روشهایی استفاده میکند که از مجازات سایت جلوگیری میکند، اما با این وجود، بهترین محتوا را برای کاربر مهیا نکرده و ترجیحاً روی بهبود رتبهبندیهای موتور جستجو تمرکز میکند.
موتورهای جستجو ممکن است سایتهایی را که از روشهای کلاه سیاه استفاده میکنند را جریمه کنند، که این امر از طریق کاهش دادن رتبه آنها، یا حذف کردن لیستهای آنها از دیتابیسهای خود و یا همه موارد میتواند صورت گیرد. چنین مجازاتهایی میتوانند بطور خودکار توسط الگوریتمهای موتور جستجو یا از طریق بازنگری دستی سایت صورت پذیرد. یک نمونه، حذف ریکو و بیامدبلیو از گوگل در فوریه ۲۰۰۶ به دلیل استفاده از شیوههای فریبنده بود. با این حال، هر دو کمپانی به سرعت عذرخواهی کرده و با اصلاح نمودن صفحات متخلف، به لیست گوگل بازگشتند.
سئو به عنوان یک استراتژی بازاریابی
سئو یک روش و استراتژی بازاریابی مناسب برای همه وب سایتها نیست و بر اساس هدف گردانندگان یک وب سایت، استراتژیهای بازاریابی اینترنتی دیگر مانند تبلیغات از طریق پرداخت کلیکی میتواند مؤثرتر باشد. همچنین، یک کمپین تبلیغات اینترنتی موفق میتواند به ساختن صفحات وب دارای کیفیت بالا بستگی داشته باشد که بکارگیری نرمافزارهای تحلیل را ترغیب مینماید تا صاحبان سایتها قادر به ارزیابی نتایج، و بهبود نرخ تبدیل سایت شوند.
در صورت تمایل به کسب اطلاعات بیشتر درمورد اپلیکیشن و سایت و دریافت مشاوره رایگان ، اطلاعات تماس خود را وارد کنید.
نویسنده: علیرضا نوفرستی | متخصص دیجیتال مارکتینگ شرکت پیشگامان دامنه فناوری