Board logo

标题: 终于找到了tw过滤广告的bug了 [打印本页]

作者: bug    时间: 2005-7-8 23:14     标题: 终于找到了tw过滤广告的bug了

打开图片多的页面,过滤的条数大于300条以后,cpu占用率大幅度上升,并且在页面完全打开完毕也不会降下来,附件里有一个我用的800条的过滤列表,大家可以测试一下打开http://www2.beareyes.com.cn/bbs/wd012.htm这个页面,tw的各个版本都有这个问题
maxthon用这个过滤列表没有任何问题
作者: tinham    时间: 2005-7-8 23:19

打开这个页面没有什么问题啊

只不过内存就占用多了一点!~
作者: ALEX    时间: 2005-7-8 23:20

我曾经试过类似的多条列表,几乎死机,现在就用一个不到30条的
作者: bug    时间: 2005-7-8 23:20

你把过滤列表加进去试试看,过滤条数少的时候没任何问题
作者: kiss-win    时间: 2005-7-8 23:43

提示: 作者被禁止或删除 内容自动屏蔽
作者: TW越来越好    时间: 2005-7-9 08:59

没开这功能.不知道.

不过开了也不可能会去过滤这么多.
作者: TW越来越好    时间: 2005-7-9 09:10

试了一下,正常.速度也快.
作者: TW越来越好    时间: 2005-7-9 09:16

列表当中"url*="这段可不可以删掉啊?
作者: starsoft    时间: 2005-7-9 15:24

这里想当然的东西太多了.
如url151=*.pus*list.com/cgi-bin/top/account.cgi?*,?是特殊字符.你想来说明URL动态网页中的?是一厢情愿.
url400=*/banner1.*
url401=*/banner2.*
url402=*/banner3.*
url403=*/banner4.*
url404=*/banner5.*则过余啰嗦:*/banner?.*不就可以说明了吗?而且通配了其他数字.

整个规则列表中,针对某一网站的优化太多了,有些朋友可能一辈子都不会用上的.

而且这个列表太多了.

你自己想想老大写这个功能是无非是.取URL

在黑名单中匹配,如果是黑名单中的,然后到白名单中匹配有规则匹配不过滤,无则过滤,你的名单越长,则你的CPU占用越多.

这不是值得推荐的方法

[ Last edited by starsoft on 2005-7-9 at 03:28 PM ]




欢迎光临 世界之窗论坛 (http://bbs.theworld.cn/) Powered by Discuz! 7.2