返回列表 发帖
感谢更新,跟进

TOP

发现一个较大错误,昨天更新的朋友请重新更新一下

TOP

谢谢
马上更新

TOP

好的,跟进更新

TOP

感谢大大,跟进,刚换用上1楼里大大9月5日版通用黑名单

TOP

本帖最后由 542555930 于 2009-9-6 22:04 编辑

没被过滤,刚才碰到的是灵异情况,现在都可以显示了

TOP

966# 542555930
那个提高js脚本执行效率的过滤规则和本规则使用会影响greendown的下载地址显示

TOP

感谢更新,跟进

TOP

本帖最后由 vcAngel 于 2009-9-7 22:28 编辑

我发现个事`还是有个别网站的注册按钮和登录按钮还有大图(一些网站活动的LOGO)被过滤掉...
总不能有个网站被虑了就要发一次吧...

刚换了ulsdylx的规则,还不如楼主的好呢!误滤更多!

另外主要的一点,楼主最开始的思路跟现在走的截然不同了

不要每个网站都单独有个规则,这样慢慢累积起来又要很多了

还是适合大多网站的规则就好,个别的就用白名单解决吧 要是越来越臃肿

TOP

本帖最后由 tashee 于 2009-9-8 18:02 编辑

同意969楼意见! 适合大多数常用网站的规则就好,如果每个网站都兼顾的话,容易冲突不利执行效率的提高。说老实话我个别网站都用的白名单没好意思向楼主提出来。怕其他人不常上反而把规则搞多了... 呵呵说了这么多,谢谢楼主不断的更新完善一直都用楼主的规则。

TOP

效率肯定是首要考虑的,如为什么使用[^>]*>而不使用[^>]*?>你可以想想那个效率高,单个网站的添加也有一部分效率的考虑和更好的处理,如使用通用,就会影响整个效率,其实多几个明确的关键字对效率没有影响,只有那种不明确的字段如[^>]*? [\s\S]*?越多才会影响效率

TOP

哈哈,学习了

TOP

返回列表