วิธีสร้างไฟล์ Robots.txt เพื่อทำ SEO ฟรี! ควบคุมบอทได้ดั่งใจ
Robots.txt คือไฟล์ข้อความเล็กๆ ที่ทรงพลังมากสำหรับ SEO มันเปรียบเสมือนป้ายจราจรที่บอก Googlebot และหุ่นยนต์ค้นหาอื่นๆ ว่า "ตรงนี้เข้าได้นะ" หรือ "ตรงนี้ห้ามเข้านะ" หากตั้งค่าผิด เว็บของคุณอาจหายไปจาก Google ได้เลย! วันนี้เรามาเรียนรู้วิธีสร้างไฟล์นี้ให้ถูกต้องกันครับ
ดูวิธีใช้งานใน 1 นาที
ทำไมต้องมี Robots.txt?
วิธีใช้งานเครื่องมือ
1. ตั้งค่าทั่วไป
เลือกค่าเริ่มต้นว่าต้องการ "อนุญาตทั้งหมด (Allow)" หรือ "ห้ามทั้งหมด (Disallow)" สำหรับบอททั่วไป
2. กำหนดหน้าที่ห้ามเข้า
เพิ่มโฟลเดอร์ที่ไม่ต้องการให้ Google เห็น เช่น /admin/, /private/ หรือหน้า Login เพื่อความปลอดภัย
3. ใส่ Sitemap
อย่าลืมใส่ลิงก์ไปยังไฟล์ sitemap.xml เพื่อช่วยให้ Google หาหน้าต่างๆ ในเว็บเจอได้เร็วขึ้น
ฟีเจอร์พิเศษ
เครื่องมือของเรามีตัวเลือก "Block Bad Bots" ให้ด้วย! แค่ติ๊กเลือกบอทที่ไม่ดี (เช่น Ahrefs, Semrush ถ้าไม่อยากให้คู่แข่งมาส่อง) ระบบจะสร้างโค้ดบล็อกให้ทันทีครับ