Cara Mengatasi Url Dicekal Oleh Robot.Txt


Pada artikel sebelumnya Admin pernah membahas tentang Robot.txt seperti :
1. Cara Setting Robot.txt
2. Mengenal Robot.txt

Nah, pada kesempatan ini Admin akan membahas tentang Cara Mengatasi Url Blog yang dicekal oleh Robot.txt

Biasanya url yang dicekal semakin banyak atau berkurang itu terkadang karena settingan robot txt dan robot tag header di blog sobat. Saat ini seocips akan membagikan sedikit mengenai Cara mengatasi url di cekal robot txt.

Cara mengatasinya kita tinggal merubah kode robot.txt Disallow: /search menjadi Disallow: saja. Berikut ini cara mengatasi url yang dicekal atau setidaknya menguranginya.
  • Berikut cara mengatasi Url yang dicekal oleh robot.txt :
1. Masuk Ke Dashboard > Setelan > Preferensi Penelusuran
2. Pada bagian perayapan dan pengindexan pili edit di Menu Robot.txt khusus
3. Aktifkan konten Robot.txt khusus? Jawabnya: Ya"
4. Isi Kode Berikut :

Tampilkan Kode
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow:
Allow: /
Sitemap: http://www.harianja17.com/feeds/post/default?orderby=UPDATED
Ket:
Silahkan ganti Kode Link www.harianja17.com dengan Url Blog Anda.


5. Simpan Perubahan
6. Selesai, dan Lihat Hasilnya dalam beberapa hari.

Semoga Bermanfaat ^_^

Iklan Atas Artikel

Iklan Tengah Artikel 1

Iklan Tengah Artikel 2

Iklan Bawah Artikel