Semalt: វិធីរារាំង Darodar Robots.txt

ឯកសារ Robots.txt គឺជាឯកសារអត្ថបទធម្មតាមួយដែលមានការណែនាំអំពីវិធីដែលអ្នករុករកគេហទំព័រឬរូបយន្តគួរតែចូលមើលគេហទំព័រ។ ពាក្យស្នើសុំរបស់ពួកគេគឺមានជាក់ស្តែងនៅក្នុងរូបយន្ត ម៉ាស៊ីនស្វែងរក ដែលជារឿងធម្មតានៅក្នុងគេហទំព័រដែលបានបង្កើនប្រសិទ្ធភាពជាច្រើន។ ជាផ្នែកមួយនៃពិធីសារដកមនុស្សយន្ត (REP) ឯកសារ robots.txt បង្កើតបានជាផ្នែកសំខាន់នៃការធ្វើលិបិក្រមមាតិកាគេហទំព័រក៏ដូចជាធ្វើឱ្យម៉ាស៊ីនមេអាចផ្ទៀងផ្ទាត់សំណើរបស់អ្នកប្រើប្រាស់បាន។
Julia Vashneva នាយកគ្រប់គ្រងជោគជ័យអតិថិជនជាន់ខ្ពស់របស់ Semalt ពន្យល់ថាការភ្ជាប់ទំនាក់ទំនងគឺជាផ្នែកមួយនៃការស្វែងរកម៉ាស៊ីនធ្វើឱ្យប្រសើរ (SEO) ដែលពាក់ព័ន្ធនឹងការទទួលបានចរាចរពីដែនផ្សេងទៀតនៅក្នុងទីផ្សារពិសេសរបស់អ្នក។ សម្រាប់តំណភ្ជាប់ "ធ្វើតាម" ដើម្បីផ្ទេរទឹកតំណភ្ជាប់វាចាំបាច់ណាស់ក្នុងការបញ្ចូលឯកសារ robots.txt នៅលើកន្លែងបង្ហោះគេហទំព័ររបស់អ្នកដើម្បីដើរតួជាអ្នកណែនាំពីរបៀបដែលម៉ាស៊ីនមេធ្វើអន្តរកម្មជាមួយគេហទំព័ររបស់អ្នក។ ពីប័ណ្ណសារនេះសេចក្តីណែនាំមានវត្តមានដោយអនុញ្ញាតឬមិនអនុញ្ញាតឱ្យភ្នាក់ងារភ្នាក់ងារជាក់លាក់ខ្លះមានឥរិយាបទ។
ទ្រង់ទ្រាយមូលដ្ឋាននៃឯកសារ robots.txt
ឯកសារ robots.txt មានបន្ទាត់សំខាន់ពីរ៖
ភ្នាក់ងារអ្នកប្រើ៖ [ឈ្មោះភ្នាក់ងារអ្នកប្រើ]
មិនអនុញ្ញាត៖ [ខ្សែអក្សរ URL មិន ឲ្យ វារ]
ឯកសារ robots.txt ពេញលេញគួរតែមានបន្ទាត់ទាំងពីរនេះ។ ទោះយ៉ាងណាក៏ដោយពួកគេមួយចំនួនអាចមានបន្ទាត់ច្រើននៃភ្នាក់ងារអ្នកប្រើនិងការណែនាំ។ ពាក្យបញ្ជាទាំងនេះអាចមានទិដ្ឋភាពដូចជាការអនុញ្ញាតការមិនអនុញ្ញាតឬការយឺតយ៉ាវ។ ជាធម្មតាមានការបំបែកបន្ទាត់ដែលបំបែកសំណុំនៃការណែនាំនីមួយៗ។ ការណែនាំនីមួយៗដែលអនុញ្ញាតឬមិនអនុញ្ញាតិត្រូវបានបំបែកដោយការបំបែកបន្ទាត់នេះជាពិសេសសម្រាប់ខ្សែរ៉ូបូតដែលមានច្រើនជួរ។

ឧទាហរណ៍
ឧទាហរណ៍ឯកសារ robots.txt អាចមានលេខកូដដូចជា៖
ភ្នាក់ងារអ្នកប្រើ: darodar
មិនអនុញ្ញាត: / កម្មវិធីជំនួយ
មិនអនុញ្ញាត៖ / API
មិនអនុញ្ញាត: / _ មតិយោបល់
ក្នុងករណីនេះនេះគឺជាឯកសារប្លុក robots.txt ដែលដាក់កម្រិតលើគេហទំព័រ Darodar ពីការចូលប្រើគេហទំព័ររបស់អ្នក។ នៅក្នុងវាក្យសម្ពន្ធខាងលើលេខកូដរារាំងទិដ្ឋភាពនានានៃគេហទំព័រដូចជាកម្មវិធីជំនួយ API និងផ្នែកមតិយោបល់។ ពីចំណេះដឹងនេះវាអាចទទួលបានអត្ថប្រយោជន៍ជាច្រើនពីការប្រតិបត្តិឯកសារអត្ថបទរបស់រ៉ូបូតប្រកបដោយប្រសិទ្ធភាព។ ឯកសារ Robots.txt អាចអនុវត្តមុខងារជាច្រើន។ ឧទាហរណ៍ពួកគេអាចត្រៀមខ្លួនដើម្បី៖
1. អនុញ្ញាតឱ្យមាតិការវារទាំងអស់ចូលទៅក្នុងគេហទំព័រ។ ឧទាហរណ៍;
ភ្នាក់ងារអ្នកប្រើ: *
មិនអនុញ្ញាត៖
ក្នុងករណីនេះមាតិកាអ្នកប្រើទាំងអស់អាចត្រូវបានចូលប្រើដោយអ្នកបើកគេហទំព័រណាមួយដែលត្រូវបានស្នើសុំឱ្យចូលគេហទំព័រ។
2. រារាំងមាតិកាគេហទំព័រជាក់លាក់ពីថតជាក់លាក់។ ឧទាហរណ៍;
ភ្នាក់ងារអ្នកប្រើ៖ ហ្គូហ្គោល
មិនអនុញ្ញាត៖ / ឧទាហរណ៍ថតរង /
វាក្យសម្ព័ន្ធនេះមានឈ្មោះភ្នាក់ងារអ្នកប្រើ Googlebot ជាកម្មសិទ្ធិរបស់ Google ។ វាដាក់កម្រិតលើការចូលប្រើគេហទំព័រណាមួយនៅក្នុងខ្សែរ www.ourexample.com/example-subfolder/ ។
3. រារាំងអ្នកឃ្លាំមើលគេហទំព័រជាក់លាក់ពីទំព័រគេហទំព័រជាក់លាក់។ ឧទាហរណ៍;
ភ្នាក់ងារអ្នកប្រើ៖ Bingbot
មិនអនុញ្ញាត៖ /example-subfolder/blocked-page.html
ភ្នាក់ងារអ្នកប្រើ Bing bot ជាកម្មសិទ្ធិរបស់អ្នកបង្កើតគេហទំព័រ។ ប្រភេទឯកសារ robots.txt ប្រភេទនេះដាក់កម្រិតលើ Web crawler ពីការចូលទៅកាន់ទំព័រជាក់លាក់មួយជាមួយនឹងខ្សែអក្សរ www.ourexample.com/example-subfolder/blocked-page ។
ពត៌មានសំខាន់
- មិនមែនអ្នកប្រើប្រាស់ទាំងអស់ប្រើឯកសារ robts.txt របស់អ្នកទេ។ អ្នកប្រើប្រាស់មួយចំនួនអាចសំរេចចិត្តមិនអើពើនឹងវា។ ភាគច្រើននៃអ្នកបង្កើតគេហទំព័របែបនេះរួមមាន Trojans និងមេរោគ។
- ដើម្បីឱ្យឯកសារ Robots.txt អាចមើលឃើញវាគួរតែមាននៅក្នុងថតគេហទំព័រកម្រិតខ្ពស់។
- តួអក្សរ "Robot.txt" គឺប្រកាន់អក្សរតូចធំ។ ជាលទ្ធផលអ្នកមិនគួរផ្លាស់ប្តូរពួកគេតាមរបៀបណាមួយរួមទាំងមូលធនកម្មនៃទិដ្ឋភាពមួយចំនួន។
- "/robots.txt" គឺជាដែនសាធារណៈ។ អ្នកណាម្នាក់អាចរកឃើញព័ត៌មាននេះនៅពេលដែលបន្ថែមវាទៅមាតិកានៃ URL ណាមួយ។ អ្នកមិនគួរដាក់លិបិក្រមព័ត៌មានលម្អិតឬទំព័រដែលអ្នកចង់អោយវានៅជាឯកជនទេ។