欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  web前端

我是怎么处理其他网站恶意爬虫的,希望大家喜欢(第二弹)_html/css_WEB-ITnose

程序员文章站 2022-05-19 08:03:55
...
文章是哥(mephisto)写的,SourceLink

阅读目录

  • 介绍
  • 现象
  • 版权处理升级
  • 文章是哥(mephisto)写的,SourceLink

    介绍

      上次写了一篇我是怎么处理其他网站恶意爬虫博客园的,希望大家喜欢,然后大家回复积极,对于我也是一个鼓励,针对上次还有个网站过滤掉了我的版权说明,在这一次却没有过滤掉,是不是有点小高兴,来吧,小伙伴们,我们一起高兴下吧。

    现象

     就对我今天下午发布的一篇随笔进行分析(其实昨天下午就发了,但是测试疏忽,到时结果有问题,被好心的博友指出后,就删掉,晚上继续回去赶工了的,到晚上12点才睡觉)。

    Bing搜索情况:

      我们就对这个4个网站点击进去看下效果。

    --------------------------------------

     

    -------------------------------------

     

    -------------------------------------

    --------------------------------

      其中最后一个是上次逃脱我们的圈套了的,在广大博友的集体智慧下,我想出了个比较简单,方便的处理方式,这次,他就没有过滤掉了,表示欣慰。

    版权处理升级

      在原有的基础上:如没看第一弹,这里给个链接,轻戳。

      我们这里升级了。

      第一:为了避免因为div中有博客园中这几个字而整个div被干掉,俺又定义了个人的版权说明,并加入了博客链接(但是由于疏忽,博客链接忘记挂上去,所以只有个空字)。

      就是重新定义一个版权的div,然后把个人版权信息放进去,这样就算过滤整体的,我还有个人的,爬网的网站不会这么无聊针对每一个人吧,事实证明他们确实没有这样做,所以,简单的处理也是有效果的。

      第二:放大招了,图片加水印,目前图方便找了个没破解的水印工具,这样一目了然,大家一看就知道出处了。

    看下效果图吧:

      

      (先是用红色的水印,今天的图都是黄色水印)

      总结:我们处理问题,想到了就要去试试。大家的建议,也应该去试试,并且分享出来,这样大家都有帮助,对自己的提高也很大,我们还不老,要保持一颗进步的心。不早了,又23点了。该睡了。

    文章是哥(mephisto)写的,SourceLink