loading...

معرفي مطالب جالب با لينك منبع

معرفي مطالب جالب با لينك منبع

بازدید : 114
11 زمان : 1399:2

صاحبان وب سايت از اين پوشه براي انجام تنظيمات مربوط به روباتهاي كاوشگر اينترنت به كار گيري ميكنند،و به پروتوكل استثناهاي روباتهاي اينترنت معروف هست .
تنطيمات روبات وب دوچندان معمولي است . روباتها براي فهرست بندي و ايندكس گذاري به سايت مراجعه مي كنند و در هنگام مراجعه به سايت قبلي از هر آدرسي به عنوان مثال http://YourSite .com/gallery .html فايل http://YourSite .com/robots .txt را مي خوانند تا فيلترهاي معين شده وب وب سايت را بدانند و بر پايه آن اقدام به فهرست بندي كنند .

سئو در مشهد
به طور معمول در اين فايل محتواي زيادي قرار ندارد و يك‌سري واژه كوتاه در 2 خط تكليف روبات را معين ميكند ولي درصورتي كه به غلط و بدون دقت از اولي وبسايت آموزشي دو خط در نوشته خطا نسخه برداري كنيم ممكن مي‌باشد به روباتها گفته باشيد اين وبسايت را نبين . البته روباتهاي بد يا اين كه اسپمر ها به قانون ها اين فايل اهميت نمي دهند و اين قانون براي روباتهاي داراي اعتبار تا حدود متعددي موءثر ميباشد .
چه‌گونه يك فايل robots .txt بسازيم؟ مقدمه يك فولدر به نام robots .txt در notepad يا هر ويرايشگر بي آلايش ديگري ساخت نمائيد آنگاه دستورالعملي كه به آن نياز داريد را در فايل قرار دهيد و پوشه را به وبسايت منتقل نمائيد .
محل فايل روبات كجاست؟ پوشه روبات robots .txt در ريشه وب تارنما قرار مي گيرد كه آدرس ريشه معمولا در اينترنت سايتها فايل www يا اين كه public_html مي باشد و اين به عبارتي محلي است كه پوشه صفحه حياتي يا index در آن قرار داده مي شود .
همان طور كه در مثال هاي زير مراعات مي نماييد در خط اوليه user-agent روبات را معين مي نمايد و كاراكتر ستاره * مشخص و معلوم مينمايد كه مخاطب دستور تمامي روباتها بدون مشخص شدن مثال خاصي ميباشد . خط دوم مشتمل بر دو بخش است، Allow كه از ترجمه آن پيداست اذن مي دهده به مسيري كه در اينجا روت يا اين كه ريشه تارنما هست و با آرم / معلوم شده دسترسي براي اصطلاحا خزنده هاي اينترنت يا روباتها آزاد باشد: User-agent: * Allow: /
مخاطب امر ذيل كليه روباتهاي وب، دستور: (از هيچ ورقه اي در اين وب سايت بازديد نكن) User-agent: * Disallow: /
براي شعور خوب تر كاربرد اين فايل، مثال هايي براي خودداري از نمايش عكس و تصاوير سايت در بخش تصاوير گوگل را نمونه مي زنيم، كه اين مثالها به روبات جستجوگر تصاير گوگل مي گويند از چه بخشهايي بازديد نكند . نمونه تحت در خط نخستين مخاطب را روبات كاوش گر تصاوير گوگل معين نموده و در خط دوم Disallow عدم اذن به مسير : /images
User-agent: Googlebot-Image Disallow: /images
در صورتيكه عكس خاصي در فايل فرضي images مورد نظر باشد به شكل زير نشاني دهي مي شود: User-agent: Googlebot-Image Disallow: /images/tasvir1 .jpg
دوري از سناريو تمام عكسها و تصاوير در گوگل:
User-agent: Googlebot-Image Disallow: / موتور گوگل اين امكان را ميدهد كه فيلتر و محدوديتهاي دقيقتري هم تعريف شود، براي نمونه تمام فايلهاي عكس به جز gif غربال شود . در مثال تحت علامت $ نشان دهنده محل نقطه نهايي اسم پوشه هست .

User-agent: Googlebot-Image Disallow: /* .gif$

جلوگيري از نمايش در تمام گوگل و خير صرفا بخش عكس: User-agent: Googlebot Disallow: /
خودداري از نمايش فايل اكسل در گوگل: User-agent: Googlebot Disallow: /* .xls$


در صورت عدم دسترسي به توليد پوشه robots .txt يا اين كه آپلود آيا مي توانم از غربال دسترسي روباتها به كار گيري كنم؟ در صورتي كه امكان ساخت يا اين كه آپلود فولدر به هر استدلال وجود نداشته باشد مي توانيد از متا تگها HTML meta tags براي بلوكه كردن دسترسي روباتهاي اينترنت به كارگيري نماييد، در نمونه تحت در بدنه فايل HTML به روبات گوگل گفته گرديده اين برگه را در فهرست خود قرار نده .

صاحبان وب سايت از اين پوشه براي انجام تنظيمات مربوط به روباتهاي كاوشگر اينترنت به كار گيري ميكنند،و به پروتوكل استثناهاي روباتهاي اينترنت معروف هست .
تنطيمات روبات وب دوچندان معمولي است . روباتها براي فهرست بندي و ايندكس گذاري به سايت مراجعه مي كنند و در هنگام مراجعه به سايت قبلي از هر آدرسي به عنوان مثال http://YourSite .com/gallery .html فايل http://YourSite .com/robots .txt را مي خوانند تا فيلترهاي معين شده وب وب سايت را بدانند و بر پايه آن اقدام به فهرست بندي كنند .

سئو در مشهد
به طور معمول در اين فايل محتواي زيادي قرار ندارد و يك‌سري واژه كوتاه در 2 خط تكليف روبات را معين ميكند ولي درصورتي كه به غلط و بدون دقت از اولي وبسايت آموزشي دو خط در نوشته خطا نسخه برداري كنيم ممكن مي‌باشد به روباتها گفته باشيد اين وبسايت را نبين . البته روباتهاي بد يا اين كه اسپمر ها به قانون ها اين فايل اهميت نمي دهند و اين قانون براي روباتهاي داراي اعتبار تا حدود متعددي موءثر ميباشد .
چه‌گونه يك فايل robots .txt بسازيم؟ مقدمه يك فولدر به نام robots .txt در notepad يا هر ويرايشگر بي آلايش ديگري ساخت نمائيد آنگاه دستورالعملي كه به آن نياز داريد را در فايل قرار دهيد و پوشه را به وبسايت منتقل نمائيد .
محل فايل روبات كجاست؟ پوشه روبات robots .txt در ريشه وب تارنما قرار مي گيرد كه آدرس ريشه معمولا در اينترنت سايتها فايل www يا اين كه public_html مي باشد و اين به عبارتي محلي است كه پوشه صفحه حياتي يا index در آن قرار داده مي شود .
همان طور كه در مثال هاي زير مراعات مي نماييد در خط اوليه user-agent روبات را معين مي نمايد و كاراكتر ستاره * مشخص و معلوم مينمايد كه مخاطب دستور تمامي روباتها بدون مشخص شدن مثال خاصي ميباشد . خط دوم مشتمل بر دو بخش است، Allow كه از ترجمه آن پيداست اذن مي دهده به مسيري كه در اينجا روت يا اين كه ريشه تارنما هست و با آرم / معلوم شده دسترسي براي اصطلاحا خزنده هاي اينترنت يا روباتها آزاد باشد: User-agent: * Allow: /
مخاطب امر ذيل كليه روباتهاي وب، دستور: (از هيچ ورقه اي در اين وب سايت بازديد نكن) User-agent: * Disallow: /
براي شعور خوب تر كاربرد اين فايل، مثال هايي براي خودداري از نمايش عكس و تصاوير سايت در بخش تصاوير گوگل را نمونه مي زنيم، كه اين مثالها به روبات جستجوگر تصاير گوگل مي گويند از چه بخشهايي بازديد نكند . نمونه تحت در خط نخستين مخاطب را روبات كاوش گر تصاوير گوگل معين نموده و در خط دوم Disallow عدم اذن به مسير : /images
User-agent: Googlebot-Image Disallow: /images
در صورتيكه عكس خاصي در فايل فرضي images مورد نظر باشد به شكل زير نشاني دهي مي شود: User-agent: Googlebot-Image Disallow: /images/tasvir1 .jpg
دوري از سناريو تمام عكسها و تصاوير در گوگل:
User-agent: Googlebot-Image Disallow: / موتور گوگل اين امكان را ميدهد كه فيلتر و محدوديتهاي دقيقتري هم تعريف شود، براي نمونه تمام فايلهاي عكس به جز gif غربال شود . در مثال تحت علامت $ نشان دهنده محل نقطه نهايي اسم پوشه هست .

User-agent: Googlebot-Image Disallow: /* .gif$

جلوگيري از نمايش در تمام گوگل و خير صرفا بخش عكس: User-agent: Googlebot Disallow: /
خودداري از نمايش فايل اكسل در گوگل: User-agent: Googlebot Disallow: /* .xls$


در صورت عدم دسترسي به توليد پوشه robots .txt يا اين كه آپلود آيا مي توانم از غربال دسترسي روباتها به كار گيري كنم؟ در صورتي كه امكان ساخت يا اين كه آپلود فولدر به هر استدلال وجود نداشته باشد مي توانيد از متا تگها HTML meta tags براي بلوكه كردن دسترسي روباتهاي اينترنت به كارگيري نماييد، در نمونه تحت در بدنه فايل HTML به روبات گوگل گفته گرديده اين برگه را در فهرست خود قرار نده .

برچسب ها سئو در مشهد ,
نظرات این مطلب

تعداد صفحات : 17

درباره ما
موضوعات
آمار سایت
  • کل مطالب : 335
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 0
  • بازدید امروز : 4
  • بازدید کننده امروز : 1
  • باردید دیروز : 100
  • بازدید کننده دیروز : 0
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 5
  • بازدید ماه : 659
  • بازدید سال : 1923
  • بازدید کلی : 71340
  • <
    پیوندهای روزانه
    اطلاعات کاربری
    نام کاربری :
    رمز عبور :
  • فراموشی رمز عبور؟
  • خبر نامه


    معرفی وبلاگ به یک دوست


    ایمیل شما :

    ایمیل دوست شما :



    کدهای اختصاصی