偷网页需要指定深度级别。
如果你只偷了一级页面,那页面上的链接所指向的内容很有可能是原站的。点了以后就回原站了。
一般情况下,会进行三级深度的扫描。
扫描完一个页面后,将页面上的所有,JS等内容下载到本地指定的路径里,将扫描完的页面代码中的资源路径进行替换。
然后进入二级页面,继续上一步的 *** 作。不同的是,将页面内容存下来后,将上级页面中的链接指向该页面。
这样就完整了。
你是用工具下载还是用于数据测试。。如果是WEB网站类编写,用到小偷程序的源码。。xml>
以上就是关于java小偷程序 问题全部的内容,包括:java小偷程序 问题、谷歌 *** 作系统源码:http://src.chromium.org/ 有哪位知道怎么一次批量下载的么、等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)