当前位置: 代码迷 >> 综合 >> Java实现网络爬虫 案例代码4:使用webmagic框架从网上获取《三国演义》全文
  详细解决方案

Java实现网络爬虫 案例代码4:使用webmagic框架从网上获取《三国演义》全文

热度:95   发布时间:2024-01-18 02:35:27.0

案例4:从网上获取《三国演义》全文

需求说明

搭建开发环境,实现《三国演义》全文保存在本地

步骤分析

访问网址:http://www.shicimingju.com/book/sanguoyanyi.html
分析网站URL、文档内容特征
获取网页内容
拆分出需求内容
保存在本地

案例代码


import us.codecraft.webmagic.Page;
import us.codecraft.webmagic.Site;
import us.codecraft.webmagic.Spider;
import us.codecraft.webmagic.pipeline.ConsolePipeline;
import us.codecraft.webmagic.pipeline.FilePipeline;
import us.codecraft.webmagic.pipeline.JsonFilePipeline;
import us.codecraft.webmagic.processor.PageProcessor;public class NovelRepoPageProcessor implements PageProcessor {
    // 部分一:抓取网站的相关配置,包括编码、抓取间隔、重试次数等private Site site = Site.me().setRetryTimes(3).setSleepTime(1000);@Override// process是定制爬虫逻辑的核心接口,在这里编写抽取逻辑public void process(Page page) {
    // 部分二:定义如何抽取页面信息,并保存下来 http://www.shicimingju.com/book/sanguoyanyi/page.putField("id", page.getUrl().regex("http://www\\.shicimingju\\.com/book/sanguoyanyi/(\\d+)\\.html").toString());page.putField("name", page.getHtml().xpath("//h1/text()").toString());if (page.getResultItems().get("name") == null) {
    //skip this pagepage.setSkip(true);}//<div class="chapter_content">page.putField("content", page.getHtml().xpath("//div[@class='chapter_content']/tidyText()"));// 部分三:从页面发现后续的url地址来抓取page.addTargetRequests(page.getHtml().links().regex("(http://www\\.shicimingju\\.com/book/sanguoyanyi/(\\d+)\\.html)").all());}@Overridepublic Site getSite() {
    return site;}public static void main(String[] args) {
    Spider.create(new NovelRepoPageProcessor())//从"http://www.shicimingju.com/book/sanguoyanyi.html"开始抓.addUrl("http://www.shicimingju.com/book/sanguoyanyi.html").addPipeline(new JsonFilePipeline("D:\\webmagic\\"))  //JSON格式保存结果到文件//开启5个线程抓取.thread(5)//启动爬虫.run();}
}

超全面的测试IT技术课程,0元立即加入学习!有需要的朋友戳:


腾讯课堂测试技术学习地址

欢迎转载,但未经作者同意请保留此段声明,并在文章页面明显位置给出原文链接。

  相关解决方案