|
|
在“采网址”的过程地问题:
在火车头的主程序编辑采集任务,在“采集网址规则”加入1000条网址就出现火车头主程序“死掉”。(采集深度为0)
后来发现采集的网址好像都放在PageURL/Site_2.mdb 的数据库里。我打开数据库看到一个PageURL的表。里面有字段 Urls 和 JobId。初步发现Urls字段里装的就是采集的网址,而Jobid指站点编号。
因为想加入大于1000条或者更多的网址,比如十万。但通过火车头主程序加入后,然后通过采集网址,一旦点"开始",对我的2G内存,1.9x2的CPU,一定是出现“死掉”。所以就想着直接把自己通过其他软件编辑好的网址列表倒入到PageURL/Site_2.mdb里,成功导入,并且修改了JobId的值,对应任务。目的想不通过“采网址”而直接“采集内容”,但没成功!
哪位兄弟知道的话,望赐教!谢谢。急用 |
|