insun 发表于 2006-7-4 04:41:06

不能采集中文网址的页面内容

今天发现带有中文网址的网站采集不了,在页面测试的时候读取到的源码不完整,标题是乱码。

阿健 发表于 2006-7-11 07:57:11

我也有这样的问题.谁解决了告诉一下

dr5d 发表于 2006-7-19 23:49:03

用工具将中文部分作一次编码,然后再访问,就可以了。

insun 发表于 2006-7-24 05:29:36

原帖由 dr5d 于 2006-7-19 23:49 发表
用工具将中文部分作一次编码,然后再访问,就可以了。

老兄,这个我当然知道了,根本不用工具,你直接用百度搜索,网址里就包含你搜索的关键字的编码。但是你想下,你可能对所有的网址进行编码?采集的网站里面的所有网址都是带中文的,如果一个个编码我还用采集吗?直接手工拷贝得了:o

hohoqi 发表于 2006-8-10 18:41:42

  呵呵,只要在火车里要火车头加个编码选择工具就可以了,这不是什么很难的问题/
 
  废话一句:如果我会的话,我肯定会加的!

rq204 发表于 2007-1-2 21:31:12

就是

netdream 发表于 2007-1-2 21:42:41

原帖由 insun 于 2006-7-24 05:29 发表


老兄,这个我当然知道了,根本不用工具,你直接用百度搜索,网址里就包含你搜索的关键字的编码。但是你想下,你可能对所有的网址进行编码?采集的网站里面的所有网址都是带中文的,如果一个个编码我还用采集 ...
还没遇到内容页面地址是中文的

netdream 发表于 2007-1-4 12:57:03

此问题火车VIP版已解决

xyyfx 发表于 2007-1-4 18:18:35

恩:)

vrencai 发表于 2011-8-24 09:18:14

哪位有实现的方法?
页: [1]
查看完整版本: 不能采集中文网址的页面内容