Blog tentang review dan tutorial blogger.

Search This Blog

Wednesday, June 26, 2019

Memperbaiki URL Blog Yang Di Blokir Oleh Robots.txt

Pagi ini saya mendapat email dari Google Search Console yang isinya cukup membuat saya khawatir. Judul emailnya adalah "New Coverage issue detected for site mag.web.id" nah ada isu apa lagi pikirku. Isi dari email tersebut adalah sebagai berikut ini:
To owner of mag.web.id,
Search Console has identified that your site is affected by 1 new Coverage related issue. This means that Coverage may be negatively affected in Google Search results. We encourage you to fix this issue.
New issue found:
Indexed, though blocked by robots.txt
Setelah saya coba artikan isunya cukup serius yang katanya efek isu ini bisa berdampak negatif di pencarian Google. Setelah saya mengklik tombol Fix Coverage Issues saya di arahkan ke sebuah halaman yang memperlihatkan beberapa URL di blog saya yang terindeks mesin pencarian namun diblokir oleh robot.txt.

Melakukan Riset di Google

Saya langsung melakukan riset di google untuk menemukan jawabannya. Hasil dari riset itu adalah banyak yang menganjurkan saya untuk memakai custom robot.txt. Saya agak khawatir juga soalnya ada warning yang menyatakan saya harus berhati-hati ngoprek bagian robot.txt, kalau salah bisa-bisa nanti blog saya diabaikan oleh mesin pencari Google, alamak!. 

Memasang Custom Robot.txt

Saya memutuskan mencoba memakai custom robot.txt. Robot.txt yang saya dapatkan adalah seperti berikut ini:
User-agent: *
Disallow: /
Allow: /
Sitemap: https://www.urlkalian.com/sitemap.xml
Tidak lupa saya mengganti www.urlkalian.com dengan URL blog saya ini. Kemudian saya disarankan menunggu sebulan atau dua bulan untuk mendapatkan efeknya.

No comments:

Post a Comment

© Mag 2019. Powered by Blogger.