...def scrap(category,fIEld,pages,search,use_proxy,proxy_file): ... loop = asyncio.get_event_loop() to_do = [ get_pages(url,params,conngen) for url in urls ] wait_coro = asyncio.wait(to_do) res,_ = loop.run_until_complete(wait_coro) ... loop.close() return [ x.result() for x in res ]...
在db_control.py中:
from scraper import scrap...while new < 15: data = scrap(category,proxy_file) ......
从理论上讲,刮板应该在未知时间开始,直到获得足够的数据.但是当新的不是imIDiatelly> 15然后发生此错误:
file "/usr/lib/python3.4/asyncio/base_events.py",line 293,in run_until_completeself._check_closed() file "/usr/lib/python3.4/asyncio/base_events.py",line 265,in _check_closedraise RuntimeError('Event loop is closed')RuntimeError: Event loop is closed
但是如果我只运行一次scrap(),脚本就可以了.所以我想重新创建loop = asyncio.get_event_loop()有一些问题,我尝试了this但没有任何改变.我怎么解决这个问题?当然这些只是我的代码的片段,如果您认为问题可以在其他地方,完整代码可用here.
解决方法 方法run_until_complete
,run_forever
,run_in_executor
,create_task
,call_at
明确检查 如果它已关闭,则循环并抛出异常.
从文档引用 – BaseEvenLoop.close
:
This is IDempotent and irreversible
除非你有一些(好的)理由,否则你可能只是省略了关闭线:
def scrap(category,proxy_file): #... loop = asyncio.get_event_loop() to_do = [ get_pages(url,_ = loop.run_until_complete(wait_coro) #... # loop.close() return [ x.result() for x in res ]
如果您希望每次都有一个全新的循环,您必须手动创建它并设置为默认值:
def scrap(category,proxy_file): #... loop = asyncio.new_event_loop() asyncio.set_event_loop(loop) to_do = [ get_pages(url,_ = loop.run_until_complete(wait_coro) #... return [ x.result() for x in res ]总结
以上是内存溢出为你收集整理的python – Aiohttp,Asyncio:RuntimeError:事件循环已关闭全部内容,希望文章能够帮你解决python – Aiohttp,Asyncio:RuntimeError:事件循环已关闭所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)