广告联盟网

 找回密码
 注册
查看: 667|回复: 6
打印 上一主题 下一主题

请帮助实现如下功能的脚本

[复制链接]
跳转到指定楼层
1#
发表于 2006-11-6 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
为了防止无效点击广告,求助能实现如下功能的脚本。
同一个 IP 和 cookie文件配合如果1小时内连续刷新20次后就返回(服务器忙)的结果。
但是不在服务器上完成只是通过脚本完成就行了。
如果谁帮我完成这个脚本,我会告诉他其中的秘密。
7#
发表于 2006-11-8 | 只看该作者
更不会防止蜘蛛搜索。他们根本不理会JAVASCRIPT。
6#
发表于 2006-11-7 | 只看该作者
这个是没有办法防采集的

1、如果采用客户端脚本,也就是客户端javascript代码,那么采集程序一般都不会理会这些代码,直接略过,代码不执行,那有什么用?

2、即便是采用asp,php这样的服务器端代码,照样没有办法防止采集,因为采集程序可以不理会你的cookie定义,不向服务器发送任何cookie信息,或者进行cookie欺骗,呵呵,你还是就得乖乖的把正确结果返回给别人

最好的防采集办法,我觉得应该是采用动态随机模版,这个效果应该最好,不过对高手来讲也不堪一击,除非模版足够多,或者设计得足够精妙。
5#
发表于 2006-11-7 | 只看该作者
原帖由 老DO 于 2006-11-7 10:36 发表
防范措施是有长远意义的!...
严重同意。特别是防范无聊的点击。

用JS控制Cookies,建立一个参数,每浏览一页,加1。

每次网页读取的时候,先判断此Cookies的值与生效时间。
4#
发表于 2006-11-7 | 只看该作者
要是vbscript就好了,javascript不会写,思路应该很简单,主要是语法。
3#
 楼主| 发表于 2006-11-7 | 只看该作者
QUOTE:

如果禁止20个PV的话,倒是可以防采集,同时也严重影响了蜘蛛吧。不过人一个小时内读20页应该不是问题的。

有几个;防采集、拒绝蜘蛛、防止无聊的客户长时间点击广告,都是防范无效点击。防范措施是有长远意义的!我觉得实现是很容易的正在看(JavaScript中一个机制:cookie)。不过谁帮我完成该脚本他自己也会有大的受益。
2#
发表于 2006-11-6 | 只看该作者
不知道你的“刷新”的意思。

是指同一个页面刷新20次,还是指一个小时内读了20页?

如果同页刷新20次,好像没那么无聊的客户吧。

如果禁止20个PV的话,倒是可以防采集,同时也严重影响了蜘蛛吧。不过人一个小时内读20页应该不是问题的。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|广告联盟网  

GMT, 2024-11-25 , Processed in 0.052038 second(s), 20 queries .

Powered by Discuz! X3.2

© 2005-2021 www.ggads.com GGADS 广告联盟网

快速回复 返回顶部 返回列表