我一直在寻找这个问题,假设这个问题是使用用户代理修复的,但事实并非如此<我要做的是从请愿书中取出cookies,这是代码
note: i'm try to do the petition to https webpage
/*obtiene cookies de la peticion*/
Connection.Response res = Jsoup.connect(liga).header("Content-Type","text/html;charset=UTF-8")
.cookie("TALanguage", "ALL")
.data("mode", "filterReviews")
.data("filterRating", "")
.data("filterSegment", "")
.data("filterSeasons", "")
.data("filterLang", "ALL")
.referrer(liga)
.header("X-Requested-With", "XMLHttpRequest")
.header("X-Puid",xpuid)
.data("returnTo",returnTo)
.userAgent("Mozilla/5.0 (Windows; U; WindowsNT 5.1; en-US; rv1.8.1.6) Gecko/20070725 Firefox/2.0.0.6")
.method(Method.POST)
.execute();
doc = res.parse();
Map<String, String> cookies = res.cookies();
程序在第行失败。执行()
日志中出现此错误:
org.jsoup.HttpStatusException: HTTP error fetching URL. Status=403, URL=https://somepage.html
at org.jsoup.helper.HttpConnection$Response.execute(HttpConnection.java:459)
at org.jsoup.helper.HttpConnection$Response.execute(HttpConnection.java:434)
at org.jsoup.helper.HttpConnection.execute(HttpConnection.java:181)
at mx.oeste.crawler.htmlunit.obtenerComentarios(htmlunit.java:82)
at mx.oeste.crawler.htmlunit.main(htmlunit.java:40)
尝试将内容类型标题设置为“application/x-www-form-urlencoded”,如下所示:
Connection.Response res = Jsoup.connect(liga)
.header("Content-Type","application/x-www-form-urlencoded")
.cookie("TALanguage", "ALL")
.data("mode", "filterReviews")
.data("filterRating", "")
.data("filterSegment", "")
.data("filterSeasons", "")
.data("filterLang", "ALL")
.referrer(liga)
.header("X-Requested-With", "XMLHttpRequest")
.header("X-Puid",xpuid)
.data("returnTo",returnTo)
.userAgent("Mozilla/5.0 (Windows; U; WindowsNT 5.1; en-US; rv1.8.1.6) Gecko/20070725 Firefox/2.0.0.6")
.method(Method.POST)
.execute();
如果不起作用,请尝试在手动从请愿书中获取cookie的同时监视您最喜欢的浏览器。您可以使用开发人员工具监视浏览器。
我正在尝试从站点获取数据。当我在Intellij IDEA中使用此代码时,一切正常,但当我在Android Studio和real device中使用此代码时,我得到: org.jsoup.HttpStatusException:获取URL的HTTP错误。状态=403 这是我的代码: 我找到的所有信息都是关于“userAgent()”方法的,但它没有帮助。 UPD:对不起,这是我的问题。正确的网址
JSoup似乎可以处理我尝试过的所有URL,但这一个给了我400个错误。 我得到的错误是:
我正在写一个小程序,我想从网站上获取一个元素。我已经学习了许多教程来学习如何使用jSoup编写此代码。我想打印的一个例子是“2018年11月19日星期一下午3:00至7:00”。我遇到了错误 这是我的代码: 谢谢你的帮助。
我使用JSOUB清理所有网页,如下所示: 但我的问题是,代码一开始运行良好。 过一会儿,它会停止,总是给我“HTTP错误获取URL。状态=503错误”。 当我添加时。ignoreHttpErrors(true)它可以正常工作,但不会刮伤web。 *搜索词是我想要搜索的任何关键字,num是我需要检索的页数。 有人能帮忙吗?这是否意味着谷歌阻止了我的IP刮取?如果是的话,请问有什么解决方案或者我如何替
我正在尝试从这里连接并检索页面标题。如果我从链接中删除“.com”之后的所有内容,代码运行良好。以下代码不起作用: 如果代码有效,返回的标题应该是“Sammamish Washington-Google News”。代码返回的错误是:“org.jsoup.HttpStatusException:HTTP错误获取URL。状态=405,URL=https://news.google.com/news/
使用Jsoup连接到时https://rateyourmusic.com通过localhost,它工作得很好,然而,在Heroku上,我总是收到错误503,即使使用userAgent Heroku日志: 如果我尝试连接到Heroku上的另一个网站,它可以工作。 提前谢谢。