java爬虫 怎么动态的获取html

java爬虫 怎么动态的获取html,第1张

package httpclient_learnimport java.io.IOExceptionimport org.apache.http.HttpEntityimport org.apache.http.HttpStatusimport org.apache.http.client.ClientProtocolExceptionimport org.apache.http.client.methods.CloseableHttpResponseimport org.apache.http.client.methods.HttpGetimport org.apache.http.client.utils.HttpClientUtilsimport org.apache.http.impl.client.CloseableHttpClientimport org.apache.http.impl.client.HttpClientsimport org.apache.http.util.EntityUtilspublic class HttpClientTest {

public static void main(String[] args) {//1.生成httpclient,相当于该打开一个浏览器

CloseableHttpClient httpClient = HttpClients.createDefault()

CloseableHttpResponse response = null //2.创建get请求,相当于在浏览器地址栏输入 网址

HttpGet request = new HttpGet("https://www.cnblogs.com/") try {//3.执行get请求,相当于在输入地址栏后敲回车键

response = httpClient.execute(request)

//4.判断响应状态为200,进行处理

if(response.getStatusLine().getStatusCode() == HttpStatus.SC_OK) {//5.获取响应内容

HttpEntity httpEntity = response.getEntity()

String html = EntityUtils.toString(httpEntity, "utf-8")

System.out.println(html)

} else {//如果返回状态不是200,比如404(页面不存在)等,根据情况做处理,这里略

System.out.println("返回状态不是200")

System.out.println(EntityUtils.toString(response.getEntity(), "utf-8"))

}

} catch (ClientProtocolException e) {

e.printStackTrace()

} catch (IOException e) {

e.printStackTrace()

} finally {//6.关闭HttpClientUtils.closeQuietly(response)

HttpClientUtils.closeQuietly(httpClient)

}

}

}

你好,java和html都是比较热门的方向,想选择学习一门计算机技术,首先要找到适合自己的方向,只要努力去学,有足够的意志力,找一个合适的平台,系统的学习一下,还是会有很大的收获。

如果你想要专业的学习一下,更多需要的是付出时间和精力,一般在2W左右,4-6个月时间不等。你可以根据自己的实际需求去实地看一下,先好好试听之后,再选择适合自己的。只要努力学到真东西,前途自然不会差。

freemarker没有功能。freemarker要求你自己把东西取出来放到request的attribute里面,然后在ftl文件中使用那些attribute。

可以自己用Java反射来得到实体中字段,然后自己拼html字符串


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5899135.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-03-07
下一篇 2023-03-07

发表评论

登录后才能评论

评论列表(0条)

保存