//分析器的实现类型type myAnalyzer struct { //组件基础实例 stub.ModuleInternal //响应解析器列表 respParsers []module.ParseResponse}该类型及其方法存放在 gopcp.v2/chapter6/webcrawler/module/local/analyzer 代码包 中。大家可以从我的网盘(链接:https://pan.baidu.com/s/1yzWHnK1t2jLDIcTPFMLPCA 提取码:slm5)中下载相关的代码包。当然,还有 New 函数:
//用于创建一个分析器实例func New( mID module.MID,respParsers []module.ParseResponse,scoreCalculator module.Calculatescore) (module.Analyzer,error) { moduleBase,err := stub.NewModuleInternal(mID,scoreCalculator) if err != nil { return nil,err } if respParsers == nil { return nil,genParameterError("nil response parsers") } if len(respParsers) == 0 { return nil,genParameterError("empty response parser List") } var innerParsers []module.ParseResponse for i,parser := range respParsers { if parser == nil { return nil,genParameterError(fmt.Sprintf("nil response parser[%d]",i)) } innerParsers = append(innerParsers,parser) } return &myAnalyzer{ ModuleInternal: moduleBase,respParsers: innerParsers,},nil}该函数中的大部分代码都用于参数检查。对参数 respParsers 的检査要尤为仔细,因为它们一定是网络爬虫框架的使用方提供的,属于外来代码。
分析器的 Analyze 方法的功能是,先接收响应并检查,再把 http 响应依次交给它持有的若干解析函数处理,最后汇总并返回从解析函数那里获得的数据列表和错误列表。
由于 Analyze 方法的实现比较长,这里分段讲解。先来看看检查响应的代码:
func (analyzer *myAnalyzer) Analyze( resp *module.Response) (dataList []module.Data,errorList []error) { analyzer.ModuleInternal.IncrHandlingNumber() defer analyzer.ModuleInternal.DecrHandlingNumber() analyzer.ModuleInternal.IncrCalledCount() if resp == nil { errorList = append(errorList,genParameterError("nil response")) return } httpResp := resp.httpResp() if httpResp == nil { errorList = append(errorList,genParameterError("nil http response")) return } httpReq := httpResp.Request if httpReq == nil { errorList = append(errorList,genParameterError("nil http request")) return } var reqURL = httpReq.URL if reqURL == nil { errorList = append(errorList,genParameterError("nil http request URL")) return } analyzer.ModuleInternal.IncrAcceptedCount() respDepth := resp.Depth() logger.Infof("Parse the response (URL: %s,depth: %d)... \n",reqURL,respDepth) //省略部分代码}这里的检查非常细,要像庖丁解牛一样检查参数值的内里。因为任何异常都有可能造成解析函数执行失败。我们一定不要给它们造成额外的困扰。一旦检查通过,就可以递增接受计数了。然后打印出一行日志,代表分析器已经开始解析某个响应了。
还记得前面讲的多重读取器吗?现在该用到它了:
func (analyzer *myAnalyzer) Analyze( resp *module.Response) (dataList []module.Data,errorList []error) { //省略部分代码 //解析http响应 if httpResp.Body != nil { defer httpResp.Body.Close() } multipleReader,err := reader.NewMultipleReader(httpResp.Body) if err != nil { errorList = append(errorList,genError(err.Error())) return } dataList = []module.Data{} for respParser := range analyzer.respParsers { httpResp.Body = multipleReader.Reader() pDataList,pErrorList := respParser(httpResp,respDepth) if pDataList != nil { for _,pData := range pDataList { if pData == nil { continue } dataList = appendDataList(dataList,pData,respDepth) } } if pErrorList I- nil { for _,pError := range pErrorList { if pError == nil { continue } errorList = append(errorList,pError) } } } if len(errorList) == 0 { analyzer.ModuleInternal.IncrCompletedCount() } return dataList,errorList}这里先依据 http 响应的 Body 字段初始化一个多重读取器,然后在每次调用解析函数之前先从多重读取器那里获取一个新的读取器并对 http 响应的 Body 字段重新赋值,这样就解决了 Body 字段值的底层数据只能读取一遍的问题。
每个解析函数都可以顺利读出 http 响应体。在所有解析都完成之后,如果错误列表为空,就递增成功完成计数。最后,我会返回收集到的数据列表和错误列表。
由于我们把解析 http 响应的任务都交给了解析函数,所以 Analyze 方法的实现还是比较简单的,代码逻辑也很清晰。 总结
以上是内存溢出为你收集整理的Go语言网络爬虫分析器接口全部内容,希望文章能够帮你解决Go语言网络爬虫分析器接口所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)