HttpStatusException: HTTP error 500fetching URL.

java爬虫   常会遇到状态405错误因为大哆数wed服务器不允许静态文件响应post请求,只需要把post 改为get就可以运行.下面图片为更改后的结果

}

但是有些网站报403错误403是一种在網站访问的过程中,常见的错误提示表示资源不可用,服务器理解客户对的请求但是拒绝处理它,通常由服务器上文件或者目录的权限设置导致的web访问错误

所以我们给连接添加模拟浏览器的header:

推荐一款特别好用的抓包工具: fiddler

}
  • 爬取网站的时候 conn=Jsoup.connect(url).timeout(5000).get();直接用get方法,有些網站可以正常爬取但是有些网站报403错误,403是一种在网站访问的过程中,常见的错误提示。表示资源不可用,服务器理解客户对的请求,但是拒绝處理它,通常由服务器上文件或者目录的权限设置导致的web访问错误解决方法无非就是从这几个角度:useragent,referer,token,cokkie所以我们给连接添加模拟浏览器的header:co

}

我要回帖

更多关于 HTTP error 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信