今天要给各位朋友分享的是nodejs爬虫程序解决gbk等中文编码问题详细分析,主要介绍了nodejs爬虫程序解决gbk等中文编码问题,解决了网页的编码与nodejs默认编码不一致造成的乱码问题,有兴趣的朋友快来看看吧。
使用nodejs编写爬虫程序演示,目的是提取页面的标题部分。遇到的最大问题是由于网页编码与nodejs的默认编码之间的不一致而导致的乱码问题。 Nodejs支持utf8,ucs2,ascii,binary,base64,hex等编码方法,但对于汉语编码主要分为三种类型,utf-8,gb2312,gbk。这个gbk与gb2312完全兼容,因此在处理编码时主要分为两类:utf-8和gbk。 (这不考虑其他国家的编码情况,例如日本的Shift_JIS代码等,并且这个iconv-lite模块支持的编码方法在这里受到限制)。
首先,我们来谈谈编码如何处理网页的内容。服务器与客户端通信,服务器根据指定的编码方法(例如,gbk)将网页编码为二进制流(即,我们使用wireshark捕获十六进制流)并将其发送到我们的客户端。客户端将根据网页源代码中指定的编码方法通过浏览器调用相应的解码器,并对二进制流进行解码以显示它。编码方法通常在网页上的以下内容中表示:
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8"/>
或者
<meta charset=utf-8"/>
如果客户端是nodejs爬虫请求者,因为nodejs默认编码是utf-8,爬虫将在接收二进制流作为字符串时显示乱码(默认utf-8)。此时,原始二进制码流需要根据网页的原始编码方式进行解码,不会出现乱码。
所以解决方案如下:
以二进制模式存储接收的网页源代码,并使用Buffer全局对象处理二进制数据流。
res.on('data', function(data) {
htmlData.push(data);
htmlDataLength += data.length;
});
var bufferHtmlData = Buffer.concat(htmlData,htmlDataLength);
接着对这些二进制的数据调用对应的解码程序。iconv-lite模块用于解码,cheerio模块用于解析网页内容。
decodeHtmlData = iconv.decode(bufferHtmlData,'gbk');
var $ = cheerio.load(decodeHtmlData, {decodeEntities: false});
$('title','head').each(function(i, e) {
htmlHeadTitle = $(e).text();
console.log(htmlHeadTitle);
});
上述bufferHtmlData为二进制码流,decodeHtmlData为将二进制码流通过gbk编码规则转换为unicode编码对应的数字(即usc2字节流),接着在转换为对应的字符串。下述为iconv-lite源码中解码部分,地址在这里:
fromEncoding: function(buf) {
buf = ensureBuffer(buf);
var idx = 0, len = 0,
newBuf = new Buffer(len*2),unicode,gbkcode;
for (var i = 0, _len = buf.length; i < _len; i++, len++) {
if (!!(buf[i] & 0x80)) {//the high bit is 1, so this byte is gbkcode's high byte.skip next byte
i++;
}
}
var newBuf = new Buffer(len*2);
for (var i = 0, j = 0, _len = buf.length; i < _len; i++, j++) {
var temp = buf[i], gbkcode, unicode;
if (temp & 0x80) {
gbkcode = (temp << 8) + buf[++i];
unicode = table[gbkcode] || iconv.defaultCharUnicode.charCodeAt(0);//not found in table, replace with defaultCharUnicode
}else {
unicode = temp;
}
newBuf[j*2] = unicode & 0xFF;//low byte
newBuf[j*2+1] = unicode >> 8;//high byte
}
return newBuf.toString('ucs2');
}
能够看到最终返回的是newBuf.toString(‘ucs2')字符串。
爬虫程序源码如下:
var cheerio = require('cheerio');
var http = require('http');
var iconv = require('iconv-lite');
var htmlData = [];
var htmlDataLength = 0;
var count = 0;
http.globalAgent = 'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1';
http.get('http://www.cr173.com', function(res) {
res.on('data', function(data) {
htmlData.push(data);
htmlDataLength += data.length;
count ++;
});
res.on('end',function(){
callback(htmlData);
});
});
function callback(htmlData){
console.log(count);
var bufferHtmlData = Buffer.concat(htmlData,htmlDataLength);
var charset = '';
var decodeHtmlData;
var htmlHeadTitle = '';
var htmlHeadCharset = '';
var htmlHeadContent = '';
var index = 0;
var $ = cheerio.load(bufferHtmlData, {decodeEntities: false});
$('meta','head').each(function(i, e) {
htmlHeadCharset = $(e).attr('charset');
htmlHeadContent = $(e).attr('content');
if(typeof(htmlHeadCharset) != 'undefined'){
charset = htmlHeadCharset;
}
if(typeof(htmlHeadContent) != 'undefined'){
if(htmlHeadContent.match(/charset=/ig)){
index = htmlHeadContent.indexOf('=');
charset = htmlHeadContent.substring(index+1);
}
}
});
//此处为什么需要对整个网页进行转吗,是因为cheerio这个组件不可以返回buffer,iconv则无法转换之
if(charset.match(/gb/ig)){
decodeHtmlData = iconv.decode(bufferHtmlData,'gbk');
}
else{//因为有可能返回的网页中不存在charset字段,所以默认都是按照utf8进行处理
decodeHtmlData = iconv.decode(bufferHtmlData,'utf8');
}
var $ = cheerio.load(decodeHtmlData, {decodeEntities: false});
$('title','head').each(function(i, e) {
htmlHeadTitle = $(e).text();
console.log(htmlHeadTitle);
});
console.log(charset);
}