علم سئو در اواسط دهه ۱۹۹۰ توسط وب مستر ها و مدیران سایتهای بزرگ شروع شد. در ابتدا همه وب مسترها می بایست تمام صفحات خود را برای آمدنخزنده ها به سایت آنها ثبت می کردند تا در نهایت صفحات آنها در نتایج جستجو به نمایش گذاشته می شد. امروزه با رشد اینترنت فروش خدمات اینترنتی هم افزایش یافته است.
شاخص گذاری کردن
موتورهای جستجوی پیشتاز همچون Yahoo!،Google و Bing از خزندهها جهت یافتن صفحات برای نتایج جستجوی الگوریتمیک استفاده میکنند. صفحاتی که از داخل باقی صفحات ایندکس شده توسط موتورهای جستجو Link شدهاند نیاز به ارسال به موتور جستجو نداشته و بصورت خودکار پیدا میشوند. بعضی از موتورهای جستجو ازجمله!Yahoo سرویس پولی ارسال را پیاده میکنند که استفاده از خزندهها را هم بصورت مجموعهای از قیمتها و نیز بصورت سیستم بها به ازاء هر Click، اجرا میکند. این برنامهها معمولا قرارگیری در بانک اطلاعاتی موتور جستجو را ضمانت کرده و در قبال رتبهای مشخص برای صفحه در لیست نتایج جستجو ضمانتی نمیکنند. دو فهرست اصلی اینترنتی یعنی Yahoo Directory و Open Directory Project، هردو نیاز به ارسال دستی و بررسی انسانی دارند.Google ابزاری به نام Google Webmaster Tools ارائه میدهد که در آن میتوان نقشه سایت را توسط خوراک XML ایجاد کرده و بصورت رایگان ارسال نمود تا از یافته شدن تمام صفحات حتی صفحاتی که بصورت خودکار از طریق دنبال کردن Linkها پیدا نمیشوند، اطمینان حاصل نمود. خزندههای موتورهای جستجو میتوانند به عوامل مختلفی در هنگام خزیدن در یک سایت توجه کنند. تمامی صفحات ایندکس نمیشوند. همچنین فاصله یک صفحه از ریشه سایت میتواند عاملی در پیدا شدن یا عدم آن توسط خزندههای موتورهای جستجو باشد. امروزه بسیاری از شرکتهای مطرح در دنیا به بررسی و اجرای خدمات سئو برای شرکتهای مختلف مشغول هستند.
صفحه فرود یا landing page
یکی از فاکتورهای مهم در خصوص سئو مشخص کردن صفحات فرود یا landing page است.
انتخاب کلید واژههای مناسب
انتخاب کلید واژههای مناسب یکی از فاکتورهای مهم در این رابطهاست که بایستی توسط دارندگان وب سایت و برنامه نویسان در نظر گرفته شود.
جلوگیری از اجرای خزندهها در صفحات
وبمسترها برای جلوگیری از نتایج ناخواسته در شاخصهای جستجومیتوانندعنکبوتهایی توسط فایل استاندارد robots.txt که در فهرست ریشه دامنه ذخیره میشود، بسازند که فایلها و فهرستهای خاصی را مورد خزیدن (Crawl)قرار ندهد.
تولید محتوای جدید و کاربرپسند
یکی از کارهای مهمی که وب مسترها برای بهینه سازی سایت خود و یا سایت های دیگران انجام می دهند تولید محتوای مناسب و جدید برای آن سایت می باشد. محتوای مناسب علاوه بر اینکه بازدید یک سایت را بالا می برد اعتبار سایت را نزد موتورهای جست و جو افزایش می دهد و می توانید لینک های طبیعی برای سایت ایجاد کند.
وبمسترها برای جلوگیری از نتایج ناخواسته در شاخصهای جستجومیتوانندعنکبوتهایی توسط فایل استاندارد robots.txt که در فهرست ریشه دامنه ذخیره میشود، بسازند که فایلها و فهرستهای خاصی را مورد خزیدن (Crawl)قرار ندهد. منظور از این متن رو متوجه نشدم اگر میشه یه توضیح کلی ارایه میدهید؟
در واقع یک دستور هست که داخل فایل txt قرار میگیره و به ربات ها میگه که مثلا در جاهایی مثل پنل مدیریتی یا... جستجو نکنن