Sebelum kita berbicara tentang robots.txt, yang perlu dan harus sobat
tahu adalah tentang Protokol Robots Exclusion. Mungkin istilah ini
jarang atau bahkan tumben sobat blogger dengar selama sobat blogger
menekuni dunia website atau blog. Oleh karena itu, saya uraikan sedikit
tentang Protokol Robots Exclusion.
Pemilik situs Web atau blog menggunakan file / robots.txt untuk
memberikan instruksi tentang situs/blog mereka untuk robot web, inilah
yang disebut Protokol Robots Exclusion .
Protokol Robots Exclusion bekerja dengan cara seperti ini : Ketika
sebuah robot akan mengunjungi URL dari sebuah blog, sebagai contoh
http://wedhus-xp.blogspot.com/welcome.html. Sebelum melakukan
kunjungan tersebut, Robots Exclusion Protocol akan memeriksa terlebih
dahulu http://wedhus-xp.blogspot.com/robots.txt, dan menemukan
User-agent: *
Disallow: /
Kata "User-agent: *" artinya berlaku untuk semua robot dan kata "Disallow: /" memberi tahu robot untuk tidak mengunjungi beberapa halaman dari blog tersebut.
Ada dua pertimbangan penting yang harus kita pikirkan ketika menggunakan /robots.txt yaitu :
- Robot bisa saja mengabaikan / robots.txt sobat blogger.
- File / robots.txt adalah file yang tersedia untuk umum.
Berikut ini contoh robots.txt beserta fungsinya masing-masing :
Memberikan pengecualian semua robot dari seluruh server
User-agent: *Membiarkan semua robot untuk melakukan Akses di blog tersebut :
Disallow: /
User-agent: *Memberikan pengecualian terhadap semua robot dari bagian Server
Disallow:
User-agent: *Memberikan pengecualian terhadap single robot
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /junk/
User-agent: BadBotMembiarkan single robot
Disallow: /
User-agent: GoogleMemberikan pengecualian terhadap semua file kecuali satu
Disallow:
User-agent: *
Disallow: /
User-agent: *Atau sobat blogger dapat secara eksplisit melarang semua halaman dianulir:
Disallow: /~joe/stuff/
User-agent: *
Disallow: /~joe/junk.html
Disallow: /~joe/foo.html
Disallow: /~joe/bar.html
Apakah sobat blogger sudah bisa memahami penjelasan di atas?
Mungkin sobat blogger malah tambah pusing. Jadi, lebih baik saya
jelaskan langsung tentang cara menambahkan Custom robots.txt pada blog
yang bernaung di bawah Paltform blogger.com
Cara Setting Custom robots.txt di blog :
- Login di http://www.blogger.com
- Pada menu Drop Down, Klik Settings dan Search preferences
- Lihat bagian Crawlers and indexing
- Klik kata Edit pada Custom robots.txt ?
- Di bagian Enable custom robots.txt content?, kasih tanda pada kolom "yes"
- Masukkan kode berikut
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow:
Allow: /
Sitemap: http://wedhus-xp.blogspot.com/feeds/posts/default?orderby=updated
- Klik Save Changes
Tambahan :
Jangan lupa ganti http://wedhus-xp.blogspot.com dengan URL blog sobat.
Kode yang saya gunakan untuk Custom robots.txt di atas merupakan kode yang biasa di terapkan di blog. Kalau sobat blogger ingin menggunakan kode yang berbeda dengan saya (Wedhus-xp), Sobat bisa gunakan salah satu dari kode yang sudah saya jabarkan sebelumnya.
Itu adalah tutorial singkat tentang cara Setting Custom robots.txt di blogger. Semoga informasi ini berguna buat sobat blogger. Untuk mendapatkan informasi yang lebih banyak tentang robots.txt, sobat blogger bisa mengunjungi halaman berikut : http://www.robotstxt.org/robotstxt.html
0 komentar:
Posting Komentar
Terima kasih anda telah membaca artikel Ini. Tak lengkap rasanya jika kunjungan anda di Blog ini tanpa meninggalkan komentar. Untuk itu silahkan berikan tanggapan anda pada kotak komentar di bawah. Semoga artikel ini bermanfaat untuk anda.