返回列表 发帖

【测试】想办法提高广告过滤的效率(cnbeta 测试)。

  1. #exd#*.cnbeta.com*#<link[^>]*?default.css[^>]*?>###<link href="http://nicolliu.googlepages.com/default.css" rel="stylesheet" type="text/css" />
  2. #exd#*.cnbeta.com*#<link[^>]*?styles\/news\.css[^>]*?>###<link href="http://nicolliu.googlepages.com/cnbetanews.css" rel="stylesheet" type="text/css" />
复制代码

测试的网站是www.cnbeta.com
用上面的过滤规则,注意,依然需要配合置顶的基本的黑名单

大家可以试试看,我替换了原来的css,修改了网站的排版风格,只需一条就可以了。

如果每个站点都可以这样的话,过滤规则的数目将大大降低,效率将会有所提高

更新:第一条是首页的,第二条是新闻页面的,其实是可以合并的,晚了,懒得弄了,线这样试试看,有问题再说

[ 本帖最后由 elkay 于 2007-4-10 23:13 编辑 ]

上个效果图,大家有什么想法可以说说

其实这种方法并不彻底,只是隐藏了页面上的广告,但是后台依然会下载广告数据,只是大家看不见了而已

那个flash框架隐藏是可以的,只是也要看个人需要,我下次改掉,先这样,只是测试而已


http://pic.eawan.com/pic.php?picname=36bef2764e4ea9dbda25aa71ecf9e665_1346249_w4.png

TOP

回复 #6 jym2005 的帖子

这种方法是不会替换的,我只是在css里设置隐藏了本来是显示广告的地方,css里面无法控制页面上的内容,如果要彻底去掉的话就只有直接替换广告位置,那样的话就会有好几条规则,如果网站很多的话,规则的数目也很惊人啊

TOP

回复 #8 jym2005 的帖子

下载依然会,现在的过滤机制是这样的,先在后台下载页面数据,有一个固定大小缓冲区,下载的数据会先放在缓冲区,这个时候会和过滤规则来匹配,匹配到的就过滤掉,然后显示出来,这个过程是需要一定的时间,当然,实际上这个时间是几乎感觉不到的。

而我一楼的方式是根本不去匹配过滤规则,直接就显示出来了,完全按照页面原来的内容显示(当然css中定义隐藏的就不会显示了),这样一来就省去了这些匹配的时间,理论上是对提高效率有帮助的

TOP

回复 #9 jym2005 的帖子

我刷新了几次没有啊,还是这样的啊

TOP

回复 #13 jym2005 的帖子

广告的数据不会下载,但是页面中广告部分的代码是会下载的,如果这部分在黑名单中有匹配到,那么就会去掉,自然就不会再下载广告数据了,如果没有匹配到,那么就会显示出来,这个时候才会下载广告数据,你看大多数情况下,广告是页面最后一个显示出来的,因为一般的比如google的广告都是链接到其他网站的,不是在本地的,所以也要一个过程

TOP

回复 #15 elion 的帖子

我晕,cb的人不会找我麻烦吧

TOP

回复 #19 jym2005 的帖子

你可以在替换串那里做文章嘛,自己写上编号就可以了

TOP

回复 #23 jym2005 的帖子

测试你都用浏览器的?晕

用支持正则表达式的编辑软件啊,比如RegexBuddy等等,或者中支持正则的搜索软件,比如V-Grep等,这样多方便,用浏览器也太麻烦了

TOP

把新闻页面的css也改过来了,暂时没有合并到一起,先这样看看吧,规则见一楼

上个效果图

http://pic.eawan.com/pic.php?picname=d1c751d62525b2fa7d924023a586c6af_1348514_w4.png

TOP

返回列表