Oleh karena itu, jika Anda tidak ingin suatu halaman atau folder dirayapi oleh mesin telusur, maka Anda bisa memblokirnya menggunakan file robots.txt. Untuk mengaktifkan fungsi file robots.txt, Anda harus memiliki akses ke root direktori atau domain Anda. Namun, jika tidak memiliki akses untuk itu, Anda bisa menerapkan fungsi robot.txt melalui pemasangan meta tag robot. Pada artikel ini akan kami bahas mengenai cara menggunakan file robots.txt pada blogger.
Membuat File Robots.txt
Sedangkan elemen Disallow : akan menjelaskan mengenai url dari halaman atau folder yang akan diblokir. Contoh, Disallow: /search, elemen tersebut menjelaskan bahwa file robots.txt yang dibuat berlaku untuk memblokir semua URL yang terdapat unsur search, misalnya http://www.tanijogonegoro.com/search?updated-max=2013-10-12T17:36:00%2B07:00&max-results=10. Dua elemen tersebut merupakan entri tunggal dalam file robots.txt. Anda bisa membuat beberapa entri, atau memasukkan beberapa elemen User-agent maupun Disallow dalam satu file robots.txt.
Selain itu, file robots.txt juga bisa digunakan untuk mengirimkan peta situs atau sitemap. Beberapa mesin telusur dapat menerima sitemap dari robots.txt. Untuk membuat sitemap melalui file robot.txt tinggal tuliskan Sitemap: masukkan sitemap Anda.
Contoh Penggunaan File Robots.txt Pada Blog
User-agent: Mediapartners-GoogleDisallow:
User-agent: *
Disallow: /search
Pada entri pertama file robots.txt di atas, dijelaskan bahwa aturan berlaku untuk robot Mediapartners-Google yang diperbolehkan untuk mengindeks seluruh halaman yang ada. Pada entri di atas, menjelaskan bahwa Disallow :, yang berarti tidak ada URL yang diblokir.
Pada entri kedua file robots.txt di atas, dijelaskan bahw aturan berlaku untuk semua robot, dan halaman atau folder yang diblokir yang memiliki unsur search. Tanda / pada baris Disallow : menunjukkan URL utama, contoh http://www.tanijogonegoro.com/. Sementara, search menunjukkan salah satu unsur pada URL yang dibatasi.
Cara Menggunakan File Robots.txt Pada Blogger
Untuk menggunakan file robots.txt pada blog yang berplatform blogger, silahkan ikuti beberapa langkah di bawah ini:
- Masuk ke akun blogger, klik Setting atau Setelan, lalu pilih Search Preferences atau Preferensi Penelusuran.
- Pada bagian Crawlers and indexing atau Perayap dan pengindekan, klik edit pada Custom robots.txt atau robots.txt khusus.
- Muncul pertanyaan Enable custom robots.txt content? atau Aktifkan konten robots.txt khusus?, pilih Yes.
- Akan muncul kotak kecil, buat file robots.txt pada kotak tersebut.
Lihat gambar di bawah ini.
- Klik tombol Save change atau Simpan perubahan jika file robots.txt selesai di buat.
Mengatur File Robots.txt Agar SEO Friendly
Untuk membuat file robots.txt agar blog Anda SEO Friendly, ada beberapa kriteria yang sebaiknya diperhatikan. Beberpa kriteria tersebut antara lain:- Untuk menghindari duplikat konten, sebaiknya halaman label dan archive tidak dirayapi oleh mesin pencari, oleh karena itu, gunakan parameter tersebut saat membuat file robots.txt.
- Halaman paginasi, misalnya halaman Next/Prev atau Newer/Older Post juga harus dibatasi agar tidak terindeks oleh mesin telusur.
- Biarkan robot Google Adsense tetap mengindek seluruh halaman Anda, agar iklan yang ditampilkan lebih kontekstual.
- Manfaatkan file robots.txt untuk mengirimkan peta situs atau sitemap.
User-agent: Mediapartners-Google
Allow: /
User-agent: *
Disallow: /search
Disallow: /*?
Disallow: /*archive
Sitemap: http://www.tanijogonegoro.com/feeds/posts/default
Atau jika Anda menggunakan sitemap atom, agar file sitemap tersebut tidak diblokir robots.txt, maka Anda dapat membuatnya seperti di bawah ini:
User-agent: Mediapartners-Google
Allow: /
User-agent: *
Disallow: /search
Disallow: /*archive
Sitemap: http://www.tanijogonegoro.com/atom.xml?redirect=false&start-index=1&max-results=500
Ganti tulisan berwarna biru dengan URL blog Anda.
Demikian informasi terbaik yang dapat kami sajikan, semoga aritkel Cara Menggunakan File Robots.txt, bermanfaat bagi pembaca sekalian. Terima kasih atas kunjungannya, salam Tanijogonegoro.