使用nodejs写了一个爬虫的demo,目的是提取网页的title部分。
遇到最大的问题就是网页的编码与nodejs默认编码不一致造成的乱码问题。nodejs支持utf8, ucs2, ascii, binary, base64, hex等编码方式,但是对于汉语言来说编码主要分为三种,utf-8,gb2312,gbk。这里面gbk是完全兼容gb2312的,因此在处理编码的时候主要就分为utf-8以及gbk两大类。(这是在没有考虑到其他国家的编码情况,比如日本的Shift_JIS编码等,同时这里这个iconv-lite模块支持的编码方法有限)。
首先说一下浏览器显示网页内容的时候是如何处理编码问题的。服务器和客户端进行通信,服务端将网页按照指定的编码方式(比如gbk)编码成为二进制码流(即我们使用wireshark抓包看到额16进制码流)传送给我们的客户端。客户端则会根据网页源码中所规定的编码方式,由浏览器调用对应的解码器,将二进制码流解码后显示出来。而编码方式通常在网页中是如下内容表示:
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8"/>
或者
<meta charset=utf-8"/>
如果客户端是nodejs爬虫请求程序,由于nodejs默认的编码方式是utf-8,因此爬虫程序将接收到的二进制码流以字符串(默认方式utf-8)显示的时候则会显示乱码。这个时候需要将原始的二进制码流按照网页原来的编码方式解码,则不会出现乱码。
因此解决方法如下:
将接收到的网页源码以二进制的方式存储下来,处理二进制数据流使用Buffer全局对象。
res.on('data', function(data) { htmlData.push(data); htmlDataLength += data.length; }); var bufferHtmlData = Buffer.concat(htmlData,htmlDataLength);
然后对这些二进制的数据调用对应的解码程序。iconv-lite模块用于解码,cheerio模块用于解析网页内容。
decodeHtmlData = iconv.decode(bufferHtmlData,'gbk'); var $ = cheerio.load(decodeHtmlData, {decodeEntities: false}); $('title','head').each(function(i, e) { htmlHeadTitle = $(e).text(); console.log(htmlHeadTitle); });
上述bufferHtmlData为二进制码流,decodeHtmlData为将二进制码流通过gbk编码规则转换为unicode编码对应的数字(即usc2字节流),然后在转换为对应的字符串。下述为iconv-lite源码中解码部分,地址在这里:
fromEncoding: function(buf) { buf = ensureBuffer(buf); var idx = 0, len = 0, newBuf = new Buffer(len*2),unicode,gbkcode; for (var i = 0, _len = buf.length; i < _len; i++, len++) { if (!!(buf[i] & 0x80)) {//the high bit is 1, so this byte is gbkcode's high byte.skip next byte i++; } } var newBuf = new Buffer(len*2); for (var i = 0, j = 0, _len = buf.length; i < _len; i++, j++) { var temp = buf[i], gbkcode, unicode; if (temp & 0x80) { gbkcode = (temp << 8) + buf[++i]; unicode = table[gbkcode] || iconv.defaultCharUnicode.charCodeAt(0);//not found in table, replace with defaultCharUnicode }else { unicode = temp; } newBuf[j*2] = unicode & 0xFF;//low byte newBuf[j*2+1] = unicode >> 8;//high byte } return newBuf.toString('ucs2'); }
可以看到最终返回的是newBuf.toString(‘ucs2')字符串。
爬虫程序源码如下:
var cheerio = require('cheerio'); var http = require('http'); var iconv = require('iconv-lite'); var htmlData = []; var htmlDataLength = 0; var count = 0; http.globalAgent = 'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1'; http.get('http://www.cr173.com', function(res) { res.on('data', function(data) { htmlData.push(data); htmlDataLength += data.length; count ++; }); res.on('end',function(){ callback(htmlData); }); }); function callback(htmlData){ console.log(count); var bufferHtmlData = Buffer.concat(htmlData,htmlDataLength); var charset = ''; var decodeHtmlData; var htmlHeadTitle = "'; var htmlHeadCharset = "'; var htmlHeadContent = ''; var index = 0; var $ = cheerio.load(bufferHtmlData, {decodeEntities: false}); $('meta','head').each(function(i, e) { htmlHeadCharset = $(e).attr('charset'); htmlHeadContent = $(e).attr('content'); if(typeof(htmlHeadCharset) != 'undefined'){ charset = htmlHeadCharset; } if(typeof(htmlHeadContent) != 'undefined'){ if(htmlHeadContent.match(/charset=/ig)){ index = htmlHeadContent.indexOf('='); charset = htmlHeadContent.substring(index+1); } } }); //此处为什么需要对整个网页进行转吗,是因为cheerio这个组件不能够返回buffer,iconv则无法转换之 if(charset.match(/gb/ig)){ decodeHtmlData = iconv.decode(bufferHtmlData,'gbk'); } else{//因为有可能返回的网页中不存在charset字段,因此默认都是按照utf8进行处理 decodeHtmlData = iconv.decode(bufferHtmlData,'utf8'); } var $ = cheerio.load(decodeHtmlData, {decodeEntities: false}); $('title','head').each(function(i, e) { htmlHeadTitle = $(e).text(); console.log(htmlHeadTitle); }); console.log(charset); }
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
本文向大家介绍nodejs爬虫抓取数据之编码问题,包括了nodejs爬虫抓取数据之编码问题的使用技巧和注意事项,需要的朋友参考一下 cheerio DOM化并解析的时候 1.假如使用了 .text()方法,则一般不会有html实体编码的问题出现 2.如果使用了 .html()方法,则很多情况下(多数是非英文的时候)都会出现,这时,可能就需要转义一番了 类似这些 因为需要作数据存储,所有需要转换 大
本文向大家介绍python爬虫 urllib模块url编码处理详解,包括了python爬虫 urllib模块url编码处理详解的使用技巧和注意事项,需要的朋友参考一下 案例:爬取使用搜狗根据指定词条搜索到的页面数据(例如爬取词条为‘周杰伦'的页面数据) 编码错误 【注意】上述代码中url存在非ascii编码的数据,则该url无效。如果对其发起请求,则会报如下错误: url的特性:url不可以存在非
本文向大家介绍python 中xpath爬虫实例详解,包括了python 中xpath爬虫实例详解的使用技巧和注意事项,需要的朋友参考一下 案例一: 某套图网站,套图以封面形式展现在页面,需要依次点击套图,点击广告盘链接,最后到达百度网盘展示页面。 这一过程通过爬虫来实现,收集百度网盘地址和提取码,采用xpath爬虫技术 1、首先分析图片列表页,该页按照更新先后顺序暂时套图封面,查看HTML结构。
本文向大家介绍JAVA 多线程爬虫实例详解,包括了JAVA 多线程爬虫实例详解的使用技巧和注意事项,需要的朋友参考一下 JAVA 多线程爬虫实例详解 前言 以前喜欢Python的爬虫是出于他的简洁,但到了后期需要更快,更大规模的爬虫的时候,我才渐渐意识到Java的强大。Java有一个很好的机制,就是多线程。而且Java的代码效率执行起来要比python快很多。这份博客主要用于记录我对多线程爬虫的实
本文向大家介绍python爬虫中多线程的使用详解,包括了python爬虫中多线程的使用详解的使用技巧和注意事项,需要的朋友参考一下 queue介绍 queue是python的标准库,俗称队列.可以直接import引用,在python2.x中,模块名为Queue。python3直接queue即可 在python中,多个线程之间的数据是共享的,多个线程进行数据交换的时候,不能够保证数据的安全性和一致性
本文向大家介绍Java 爬虫工具Jsoup详解,包括了Java 爬虫工具Jsoup详解的使用技巧和注意事项,需要的朋友参考一下 Java 爬虫工具Jsoup详解 Jsoup是一款 Java 的 HTML 解析器,可直接解析某个 URL 地址、HTML 文本内容。它提供了一套非常省力的 API,可通过 DOM,CSS 以及类似于 jQuery 的操作方法来取出和操作数据。 jsoup 的主要功能如