Semalt: វិធីរារាំង Darodar Robots.txt

ឯកសារ Robots.txt គឺជាឯកសារអត្ថបទធម្មតាមួយដែលមានការណែនាំអំពីវិធីដែលអ្នករុករកគេហទំព័រឬរូបយន្តគួរតែចូលមើលគេហទំព័រ។ ពាក្យស្នើសុំរបស់ពួកគេគឺមានជាក់ស្តែងនៅក្នុងរូបយន្ត ម៉ាស៊ីនស្វែងរក ដែលជារឿងធម្មតានៅក្នុងគេហទំព័រដែលបានបង្កើនប្រសិទ្ធភាពជាច្រើន។ ជាផ្នែកមួយនៃពិធីសារដកមនុស្សយន្ត (REP) ឯកសារ robots.txt បង្កើតបានជាផ្នែកសំខាន់នៃការធ្វើលិបិក្រមមាតិកាគេហទំព័រក៏ដូចជាធ្វើឱ្យម៉ាស៊ីនមេអាចផ្ទៀងផ្ទាត់សំណើរបស់អ្នកប្រើប្រាស់បាន។

Julia Vashneva នាយកគ្រប់គ្រងជោគជ័យអតិថិជនជាន់ខ្ពស់របស់ Semalt ពន្យល់ថាការភ្ជាប់ទំនាក់ទំនងគឺជាផ្នែកមួយនៃការស្វែងរកម៉ាស៊ីនធ្វើឱ្យប្រសើរ (SEO) ដែលពាក់ព័ន្ធនឹងការទទួលបានចរាចរពីដែនផ្សេងទៀតនៅក្នុងទីផ្សារពិសេសរបស់អ្នក។ សម្រាប់តំណភ្ជាប់ "ធ្វើតាម" ដើម្បីផ្ទេរទឹកតំណភ្ជាប់វាចាំបាច់ណាស់ក្នុងការបញ្ចូលឯកសារ robots.txt នៅលើកន្លែងបង្ហោះគេហទំព័ររបស់អ្នកដើម្បីដើរតួជាអ្នកណែនាំពីរបៀបដែលម៉ាស៊ីនមេធ្វើអន្តរកម្មជាមួយគេហទំព័ររបស់អ្នក។ ពីប័ណ្ណសារនេះសេចក្តីណែនាំមានវត្តមានដោយអនុញ្ញាតឬមិនអនុញ្ញាតឱ្យភ្នាក់ងារភ្នាក់ងារជាក់លាក់ខ្លះមានឥរិយាបទ។

ទ្រង់ទ្រាយមូលដ្ឋាននៃឯកសារ robots.txt

ឯកសារ robots.txt មានបន្ទាត់សំខាន់ពីរ៖

ភ្នាក់ងារអ្នកប្រើ៖ [ឈ្មោះភ្នាក់ងារអ្នកប្រើ]

មិនអនុញ្ញាត៖ [ខ្សែអក្សរ URL មិន ឲ្យ វារ]

ឯកសារ robots.txt ពេញលេញគួរតែមានបន្ទាត់ទាំងពីរនេះ។ ទោះយ៉ាងណាក៏ដោយពួកគេមួយចំនួនអាចមានបន្ទាត់ច្រើននៃភ្នាក់ងារអ្នកប្រើនិងការណែនាំ។ ពាក្យបញ្ជាទាំងនេះអាចមានទិដ្ឋភាពដូចជាការអនុញ្ញាតការមិនអនុញ្ញាតឬការយឺតយ៉ាវ។ ជាធម្មតាមានការបំបែកបន្ទាត់ដែលបំបែកសំណុំនៃការណែនាំនីមួយៗ។ ការណែនាំនីមួយៗដែលអនុញ្ញាតឬមិនអនុញ្ញាតិត្រូវបានបំបែកដោយការបំបែកបន្ទាត់នេះជាពិសេសសម្រាប់ខ្សែរ៉ូបូតដែលមានច្រើនជួរ។

ឧទាហរណ៍

ឧទាហរណ៍ឯកសារ robots.txt អាចមានលេខកូដដូចជា៖

ភ្នាក់ងារអ្នកប្រើ: darodar

មិនអនុញ្ញាត: / កម្មវិធីជំនួយ

មិនអនុញ្ញាត៖ / API

មិនអនុញ្ញាត: / _ មតិយោបល់

ក្នុងករណីនេះនេះគឺជាឯកសារប្លុក robots.txt ដែលដាក់កម្រិតលើគេហទំព័រ Darodar ពីការចូលប្រើគេហទំព័ររបស់អ្នក។ នៅក្នុងវាក្យសម្ពន្ធខាងលើលេខកូដរារាំងទិដ្ឋភាពនានានៃគេហទំព័រដូចជាកម្មវិធីជំនួយ API និងផ្នែកមតិយោបល់។ ពីចំណេះដឹងនេះវាអាចទទួលបានអត្ថប្រយោជន៍ជាច្រើនពីការប្រតិបត្តិឯកសារអត្ថបទរបស់រ៉ូបូតប្រកបដោយប្រសិទ្ធភាព។ ឯកសារ Robots.txt អាចអនុវត្តមុខងារជាច្រើន។ ឧទាហរណ៍ពួកគេអាចត្រៀមខ្លួនដើម្បី៖

1. អនុញ្ញាតឱ្យមាតិការវារទាំងអស់ចូលទៅក្នុងគេហទំព័រ។ ឧទាហរណ៍;

ភ្នាក់ងារ​អ្នក​ប្រើ: *

មិនអនុញ្ញាត៖

ក្នុងករណីនេះមាតិកាអ្នកប្រើទាំងអស់អាចត្រូវបានចូលប្រើដោយអ្នកបើកគេហទំព័រណាមួយដែលត្រូវបានស្នើសុំឱ្យចូលគេហទំព័រ។

2. រារាំងមាតិកាគេហទំព័រជាក់លាក់ពីថតជាក់លាក់។ ឧទាហរណ៍;

ភ្នាក់ងារអ្នកប្រើ៖ ហ្គូហ្គោល

មិនអនុញ្ញាត៖ / ឧទាហរណ៍ថតរង /

វាក្យសម្ព័ន្ធនេះមានឈ្មោះភ្នាក់ងារអ្នកប្រើ Googlebot ជាកម្មសិទ្ធិរបស់ Google ។ វាដាក់កម្រិតលើការចូលប្រើគេហទំព័រណាមួយនៅក្នុងខ្សែរ www.ourexample.com/example-subfolder/ ។

3. រារាំងអ្នកឃ្លាំមើលគេហទំព័រជាក់លាក់ពីទំព័រគេហទំព័រជាក់លាក់។ ឧទាហរណ៍;

ភ្នាក់ងារអ្នកប្រើ៖ Bingbot

មិនអនុញ្ញាត៖ /example-subfolder/blocked-page.html

ភ្នាក់ងារអ្នកប្រើ Bing bot ជាកម្មសិទ្ធិរបស់អ្នកបង្កើតគេហទំព័រ។ ប្រភេទឯកសារ robots.txt ប្រភេទនេះដាក់កម្រិតលើ Web crawler ពីការចូលទៅកាន់ទំព័រជាក់លាក់មួយជាមួយនឹងខ្សែអក្សរ www.ourexample.com/example-subfolder/blocked-page ។

ព​ត៌​មាន​សំខាន់

  • មិនមែនអ្នកប្រើប្រាស់ទាំងអស់ប្រើឯកសារ robts.txt របស់អ្នកទេ។ អ្នកប្រើប្រាស់មួយចំនួនអាចសំរេចចិត្តមិនអើពើនឹងវា។ ភាគច្រើននៃអ្នកបង្កើតគេហទំព័របែបនេះរួមមាន Trojans និងមេរោគ។
  • ដើម្បីឱ្យឯកសារ Robots.txt អាចមើលឃើញវាគួរតែមាននៅក្នុងថតគេហទំព័រកម្រិតខ្ពស់។
  • តួអក្សរ "Robot.txt" គឺប្រកាន់អក្សរតូចធំ។ ជាលទ្ធផលអ្នកមិនគួរផ្លាស់ប្តូរពួកគេតាមរបៀបណាមួយរួមទាំងមូលធនកម្មនៃទិដ្ឋភាពមួយចំនួន។
  • "/robots.txt" គឺជាដែនសាធារណៈ។ អ្នកណាម្នាក់អាចរកឃើញព័ត៌មាននេះនៅពេលដែលបន្ថែមវាទៅមាតិកានៃ URL ណាមួយ។ អ្នកមិនគួរដាក់លិបិក្រមព័ត៌មានលម្អិតឬទំព័រដែលអ្នកចង់អោយវានៅជាឯកជនទេ។

send email