
想要用 HtmlUnit 框架做爬虫,我 HtmlUnit 的设置如下
public clas WebClientUtils { public static WebClient getWebClient() { WebClient webClient = new WebClient(BrowserVersion.FIREFOX); //配置 webClient webClient.getOptions().setCssEnabled(false); webClient.getOptions().setJavascriptEnabled(true); webClient.setAjaxController(new NicelyResynchronizingAjaxController()); webClient.getOptions().setThrowExceptionOnFailingStatusCode(false); webClient.getOptions().setThrowExceptionOnScriptError(false); webClient.getCookieManager().setCookiesEnabled(true); webClient.setJavascriptErrorListener(new JavascriptErrorListener() { @Override public void scriptException(HtmlPage htmlPage, ScriptException e) { } @Override public void timeoutError(HtmlPage htmlPage, long l, long l1) { } @Override public void malformedScriptURL(HtmlPage htmlPage, String s, MalformedURLException e) { } @Override public void loadScriptError(HtmlPage htmlPage, URL url, Exception e) { } @Override public void warn(String s, String s1, int i, String s2, int i1) { } }); return webClient; } } 然后后文中我就访问该网址,但是问题是居然每次都无法正确获得这个网址的 HtmlPage 对象,结果总是为 null
WebClient webClient = WebClientUtils.getWebClient() HtmlPage page = webClient.getPage("我要访问的网址"); 后文的打印结果显示 page 对象的结果是为 null 的 这个网址因为某些原因所以我不能说,所以就不提了,不过这个网址是以 JSP 结尾的,这个网址可以使用 Selenium 框架正确访问,但是在 HtmlUnit 中却总是无法正确获得对象,同时如果说 Html 只是去访问百度首页的话,那又是可以的,也就是说我这个 htmlunit 就访问我这个 jsp 结尾的网址有问题 我按照百度我试了很多方法都不行,我真没法了所以我来问问大伙们,上面基本就是全部信息了
1 xiaohundun 2023-10-24 09:56:14 +08:00 webClient. waitForBackgroundJavascript 等待一会试试 |
2 tiRolin OP @xiaohundun 这招我一开始就试过了,不顶用,还是跟之前一样获取不了对象 |