如何防止网站内容被垃圾站自动采集。

[复制链接]
查看11 | 回复3 | 2010-7-8 08:13:07 | 显示全部楼层 |阅读模式
说实在的,没有绝对的办法禁止对方采集,ip禁止法我们不可能禁止那么多IP,禁止爬行会连蜘蛛一起禁止了,所以我们的站只要放到网上就不可能不被采集,但是还是有一些办法可以做的,主要是从内容下手。
1、网站内容采用多套模板,随机模板,给采集程序设置过高的门槛;但这招对整站采集器不起作用。
2、网站内容里随机插入本网站的版权,如域名(普通文本格式),网站名称,网站主人,而这些标识可以分开来写,或中间加短横-,或换成全角字符,防止被自动过滤。
3、给我们网站里的图片打上自己的logo标识,比如在图片的右下角打上网站的名称+域名;采集者把我们的网站的图片采集过去,不可能一张一张图片都ps;所以,他们采集我们的网站内容,
回复

使用道具 举报

千问 | 2010-7-8 08:13:07 | 显示全部楼层
要经常观察分析日志,然后把经常自动采集内容的IP设置成禁止访问,只有这样了。没有别的办法。
回复

使用道具 举报

千问 | 2010-7-8 08:13:07 | 显示全部楼层
添加网页内容禁止复制,禁止使用右键即可!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

主题

0

回帖

4882万

积分

论坛元老

Rank: 8Rank: 8

积分
48824836
热门排行