现在网络爬虫很多,有一些无关紧要的爬虫我们要尽量避开他们,还有一些采集信息的爬虫等,这些爬虫访问的时候如何将它们拒之门外呢?
其实我们可以指定userAgent访问网站,那么具体怎么做?其实只需要js就能实现。
- if ((navigator.userAgent.match(/(这里是指定的UA)/i))) {} else {
- window.location.href = '跳转地址'
- }
指定userAgent访问网站,其他非指定ua跳转到指定页面。
- 我的微信
- 有问题可随时与我联系
-
- 微信小程序
- 随时随地查看文章
-