![]() |
![]() |
![]() |
![]() |
![]() ![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() ![]() |
供应求购 | 免费商铺 | 商业资讯 | 库存二手 | 黄页大全 | 生活贴吧 | 房屋租售 | 招聘求职 | 婚恋交友 | 自助广告 |
网站静态页面生成及网站数据采集的攻防 | ||
发布时间:2010/11/19 17:27:57 发布人:网络游民 点击:187 | ||
本文从一个ASP程序员的角度用大量实例祥细介绍了动态网站如何生成静态页面原理,又从一个采集程序开发者的角度去祥细介绍了网站数据采集的原理及功防策略。 关于网站生成静态页面,为了让本文读者容易理解,文内列举了目前常用的多种生成静态页面的方法,其中用了很多的实例代码进行说明。 关于网站数据采集攻防,作者本身是一个采集程序的开发者,同时作者也收集研究了多种采集程序,列举了目前国内比较流行的几种防采集策略,并对每种策略作了简单客观的分析评价,希望能给广大站长们提供一些帮助。此章节也把作者原创的防采集方法奉献给大家,目地是为了让大家了解,防采集,不防搜索引擎,是可行的,有效的。 声明:希望各位朋友转载时,不要把原有作者版权去掉,谢谢合作。 由于本人写作水平有限,写的不好的地方,还请大家多多包涵,如要批评或意见,请加我QQ。 目前很多人都开始注重动态页面生成Html页了,但选择哪种生成HTML的方法和防采集却不防搜索引擎的问题却经常困扰大家。解决此问题则是本文产生的原因。 首先祥细说一下常用的几种生成HTML的方法: 生成HTML方法主要步骤只有两个: 一、获取要生成的html文件的内容 二、将获取的html文件内容保存为html文件 我在这里主要说明的只是第一步:如何获取要生成的html文件的内容: 目前常用获取html文件的内容的方法有几下几种: 1、str="<html标记>内容</html标记>" str=str&"内容数据库读取内容........." 这种方法与是在脚本内写要生成的html内容,不太方便预览生成页面的内容,无法可视化布局页面,更改html模板时会更加复杂。 用这种方法的人很多,但我感觉这种方法是最不方便的。 2、制作单独的HTML模板页,动态的内容用特定的字符作为标记(如:有人用$title$标记为网页标题),用ADODB.Stream或者Scripting.FileSystemObject将其模板内容载入,然后再用替换方法把原先定好的标记替换为动态内容(如:Replace(载入的模板内容,"$title$",rs("title" ) ) )。 3、用XMLHTTP或serverXMLHTTP获取动态页所显示的HTML内容。 我常用的生成html文件的实例: '-----------------翟振恺(小琦) 'weburl是要获取的动态页地址 'getHTTPPage(weburl)是获取动态页内容的函数 weburl="http://"&Request.ServerVariables("SERVER_NAME")&"/contact.asp?id="&rs("id")&""‘指定动态页地址 body=getHTTPPage(weburl)'用函数取到动态页地址的内容 '-----------------翟振恺(小琦) 此方法最大的好处就是不用费力气专门去写静态的模板页面,只是将原来就有的动态页面转换为HTML静态页面,但生成速度不是太快。 我常用的生成HTML的方法就是第3种:用XMLHTTP获取动态页生成的HTML内容,再用ADODB.Stream或者Scripting.FileSystemObject保存成html文件。 第二步是生成文件的方法: ASP里常用的有用ADODB.Stream生成文件和Scripting.FileSystemObject生成文件两种 1、Scripting.FileSystemObject生成文件方法: CODE:[Copy to clipboard]'-----------------翟振恺(小琦) Set fso = CreateObject("Scripting.FileSystemObject") File=Server.MapPath("要生成文件路径和文件名.htm") Set txt=fso.OpenTextFile(File,8,True) data1="文件内容"用WriteLine方法生成文件 txt.WriteLine data1 data2="文件内容"'用Write方法生成文件 txt.Write data2 txt.Close txt.fso '-----------------翟振恺(小琦) 2、ADODB.Stream生成文件方法: Dim objAdoStream set objAdoStream = Server.createObject("ADODB.Stream") objAdoStream.Type = 1 objAdoStream.Open() objAdoStream.Write("文件内容") objAdoStream.SaveToFile 要生成文件路径和文件名.htm,2 objAdoStream.Close() '-----------------翟振恺(小琦) 再说一下我对HTML防采集却不防搜索引擎蜘蛛的一些经验: 我开发过几个采集程序,也研究过很多采集程序代码,所以对采集程序的原理还算是稍微有些了解。 先说一下采集原理: 采集程序的主要步骤如下: 一、获取被采集的页面的内容 二、从获取代码中提取所有用的数据 一、获取被采集的页面的内容 我目前所掌握的ASP常用获取被采集的页面的内容方法: 1、用serverXMLHTTP组件获取数据 '-----------------翟振恺(小琦) '创建对象 Dim ObjXMLHTTP Set ObjXMLHTTP=Server.CreateObject("MSXML2.serverXMLHTTP") '请求文件,以异步形式 ObjXMLHTTP.Open "GET",weburl,False ObjXMLHTTP.send While ObjXMLHTTP.readyState <> 4 ObjXMLHTTP.waitForResponse 1000 Wend '得到结果 GetBody=ObjXMLHTTP.responseBody '释放对象 Set ObjXMLHTTP=Nothing '-----------------翟振恺(小琦) End Function 调用方法: GetBody(文件的URLf地址) 2、或XMLHTTP组件获取数据 CODE:[Copy to clipboard]Function GetBody(weburl) '-----------------翟振恺(小琦) '创建对象 Set Retrieval = CreateObject("Microsoft.XMLHTTP") With Retrieval .Open "Get", weburl, False, "", "" .Send GetBody = .ResponseBody End With '释放对象 Set Retrieval = Nothing '-----------------翟振恺(小琦) End Function 调用方法: GetBody(文件的URLf地址) 这样获取的数据内容还需要进行编码转换才可以使用 CODE:[Copy to clipboard]Function BytesToBstr(body,Cset) '-----------------翟振恺(小琦) dim objstream set objstream = Server.CreateObject("adodb.stream") objstream.Type = 1 objstream.Mode =3 objstream.Open objstream.Write body objstream.Position = 0 objstream.Type = 2 objstream.Charset = Cset BytesToBstr = objstream.ReadText objstream.Close set objstream = nothing '-----------------翟振恺(小琦) End Function 调用方法:BytesToBstr(要转换的数据,编码)'编码常用为GB2312和UTF-8 二、从获取代码中提取所有用的数据 目前我掌握的方法有: 1、用ASP内置的MID函数截取需要的数据 CODE:[Copy to clipboard]Function body(wstr,start,over) '-----------------翟振恺(小琦) start=Newstring(wstr,start) '设置需要处理的数据的唯一的开始标记 over=Newstring(wstr,over) '和start相对应的就是需要处理的数据的唯一的结束标记 body=mid(wstr,start,over-start) '设置显示页面的范围 '-----------------翟振恺(小琦) End Function 调用方法:body(被采集的页面的内容,开始标记,结束标记) 2、用正则获取需要的数据 CODE:[Copy to clipboard]Function body(wstr,start,over) '-----------------翟振恺(小琦) Set xiaoqi = New RegeXP'设置配置对象 xiaoqi.IgnoreCase = True'忽略大小写 xiaoqi.Global = True'设置为全文搜索 xiaoqi.Pattern = "”&start&“.+?”&over&“"'正则表达式 Set Matches =xiaoqi.Execute(wstr)'开始执行配置 set xiaoqi=nothing body="" For Each Match in Matches body=body&Match.Value '循环匹配 Next '-----------------翟振恺(小琦) End Function 调用方法:body(被采集的页面的内容,开始标记,结束标记) 采集程序祥细思路: 1、取得网站的分页列表页的每页地址 目前绝大部分动态网站的分页地址都有规则,如: 动态页 第一页:index.asp?page=1 第二页:index.asp?page=2 第三页:index.asp?page=3 ..... 静态页 第一页:page_1.htm 第二页:page_2.htm 第三页:page_3.htm ..... 取得网站的分页列表页的每页地址,只需要用变量替代每页地址的变化的字符即可如:page_.htm 2、获取被采集网站的分页列表页内容 3、从分页列表代码中提取被采集的内容页面的URL连接地址 绝大部分分页页面里的内容页连接也有固定规则,如: <a href="url1">连接1</a> <br> |
||
![]() |
#1楼回复: re:网站静态页面生成及网站数据采集的攻防 | 网络游民 [2010/11/19 17:28:37] | |
<a href="url3">连接3</a> <br> 用以下代码就可以获得一个URL连接集合 CODE:[Copy to clipboard]'-----------------翟振恺(小琦) Set xiaoqi = New Regexp xiaoqi.IgnoreCase = True xiaoqi.Global = True xiaoqi.Pattern = ””“.+?”““ Set Matches =xiaoqi.Execute(页面列表内容) set xiaoqi=nothing url="" For Each Match in Matches url=url&Match.Value Next '-----------------翟振恺(小琦) 4、取得被采集的内容页面内容,根据”提取标记“从被采集的内容页面分别截取要取得的数据 因为是动态生成的页面,大多数内容页面内都有相同的html标记,我们可以根据这些有规则的标记提取需要的各个部分的内容。 如: 每个页面都有网页标题,用我上面写的MID截取函数就可以获得之间的值,也可以用正则表达式来获得。 例:body("","") 介绍完采集器的祥细原理后,就开始说一下防采集的策略。 目前防采集的方法有很多种,先介绍一下常见防采集策略方法和它的弊端及采集对策: 一、判断一个IP在一定时间内对本站页面的访问次数,如果明显超过了正常人浏览速度,就拒绝此IP访问 弊端: 1、此方法只适用于动态页面,如:asp\jsp\PHP等...静态页面无法判断某个IP一定时间访问本站页面的次数 2、此方法会严重影响搜索引擎蜘蛛对其收录,因为搜索引擎蜘蛛收录时,浏览速度都会比较快而且是多线程。此方法也会拒绝搜索引擎蜘蛛收录站内文件 采集对策:只能放慢采集速度,或者不采 建议:做个搜索引擎蜘蛛的IP库,只允许搜索引擎蜘蛛快速浏览站内内容。搜索引擎蜘蛛的IP库的收集,也不太容易,一个搜索引擎蜘蛛,也不一定只有一个固定的IP地址。 评论:此方法对防采集比较有效,但却会影响搜索引擎对其收录。 二、用javascript加密内容页面 弊端:此方法适用于静态页面,但会严重影响搜索引擎对其收录情况,搜索引擎收到到的内容,也都是加密后的内容 采集对策:建议不采,如非要采,就把解密码的JS脚本也采下来。 建议:目前没有好的改良建议 评论:建议指望搜索引擎带流量的站长不要使用此方法。 三、把内容页面里的特定标记替换为”特定标记+隐藏版权文字“ 弊端:此方法弊端不大,仅仅会增加一点点的页面文件大小,但容易反采集 采集对策:把采集来的含有隐藏版权文字内容的版权文字替掉,或替换成自己的版权。 建议:目前没有好的改良建议 评论:自己感觉实用价值不大,就算是加上随机的隐藏文字,也等于画蛇添足。 四、只允许用户登陆后才可以浏览 弊端:此方法会严重影响搜索引擎蜘蛛对其收录 采集对策:目前落伍已经有人发了对策文章 ,具体对策就看这个吧《ASP小偷程序如何利用XMLHTTP实现表单的提交以及cookies或session的发送》 建议:目前没有好的改良建议 评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。 五、用Javascript、vbscript脚本做分页 弊端:影响搜索引擎对其收录 采集对策:分析javascript、vbscript脚本,找出其分页规则,自己做个对应此站的分页集合页即可。 建议:目前没有好的改良建议 评论:感觉懂点脚本语言的人都能找出其分页规则 六、只允许通过本站页面连接查看,如:Request.ServerVariables("HTTP_REFERER") 弊端:影响搜索引擎对其收录 采集对策:不知道能不能模拟网页来源。。。。目前我没有对应此方法的采集对策 建议:目前没有好的改良建议 评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。 从以上可以看出,目前常用的防采集方法,要么会对搜索引擎收录有较大影响,要么防采集效果不好,起不到防采集的效果。那么,还有没有一种有效防采集,而又不影响搜索引擎收录的方法呢?那就请继续往下看吧,精彩的地方马上呈献给大家。 下面就是我的防采集策略,防采集而又不防搜索引擎 从前面的我讲的采集原理大家可以看出,绝大多数采集程序都是靠分析规则来进行采集的,如分析分页文件名规则、分析页面代码规则。 |
页次:1/1 每页10 总记录数2 | 分页:
1
|
![]() |
![]() |
※ | 发布回复 | ↓请遵循123发布网同城生活贴吧/论坛发帖规则;↓寻一夜情、包养、招嫖类信息的一律全部删除,并报公安备案↓ | |
|
![]() |
![]() |
网站首页 | 关于我们 | 广告业务 | 关于VIP | 免责声明 | 联系我们 | 设为首页 | 加入收藏 | 意见反馈 | 网站建设 |
123发布网 版权所有 www.123fbw.com 联系电话:18331151646 QQ:1016964448
CopyRight © 2007-2016 All Right Reserved 联系站长 津ICP备10002728号 统计: |