欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  数据库

MySQL百万级高并发网站实战攻略_MySQL

程序员文章站 2022-04-08 16:43:36
...
  在一开始接触PHP接触MYSQL的时候就听不少人说:“MySQL就跑跑一天几十万IP的小站还可以,要是几百万IP就不行了”,原话不记得了,大体就是这个意思。一直也没有好的机会去验证这个说法,一是从没有接手过这么大流量的网站,二是平时工作也比较忙,懒得去管这些,反正现在用不着,抱着这个想法把这个问题一直留到了最近,才把这个问题搞明白。

  就在前几天公司旗下一网站(由于这是公司的商业内容我就不说是那个网站了)以下简称A站,这A站在年后流量猛增从一天的七八十万猛跑到了好几百万的IP,一天下来接近一千万的PV让整个服务器在高压下超负荷的工作着,时不时的服务就出现宕机。

  最首先反映出情况的是数据统计,一天下来一个数据也没有统计上,原来是MySQL停止工作了。

  本文就围绕这个问题来讲讲我们公司几个技术人员的解决方案。

  1. MySQL服务器集群

  由于是小公司在资金和成本上都有所限制,而且在技术上也没有几个技术员接触过,所以这个方法自然就让大伙否决了。

  这里说说我个人的理解!做集群不但添加资费的开销,而且在技术上也有很大的挑战,对于我们公司目前的情况是不大现实的。集群无非就是把一台服务器的压力转接到两台或是多台服务器上,我是这么理解的,也许我理解有误,还请大家指教。

  2. 分而治之

  这个方法和集群差不多,不过是把统计的代码放在不同的服务器上跑,由于公司有不少配置低的服务器跑几万到几十万IP还是没有问题的,我们可以把几百万流量分成十来个几十万的量分而统计。

  优点:充分的利用了现在的资源,解决了目前的问题。

  缺点:这样的方法不是长久之计,迟早还是会出问题的。而且在统计数据的时候比较麻烦。

  3. 统计代码的修改

  由于之前采用的是在插入数据之前加以判断,这个IP是否存在,来路等的处理,无形中增加了服务器的压力,所以大伙把统计代码改成来一个就插入数据库,不管三七二十一等以后在处理。

  这个方法基本上把当天的数据保留下来了,可是在处理的时候由于数据量的庞大,来来回回还是把服务器跑死了,而且在插入的时候由于当时设计数据结构的时候留有的索引,也大大的消耗了不少的服务器资源。

  那么把索引去掉到最后处理的时候又是老慢的,得不偿失。

  4. 统计方式的修改

  最后这一个方法,效果非常的明显。那是什么方法呢!

  这里就主要介绍这个方法:

  A、 保留原用的数据结构不变,并把所有的数据按一定的结构存入文件

  结构:可以是xml,json,也可以是你自己想的任何有规律的数据排放。

  例如:

  1 221.2.70.52,http://www.baidu.com,windowxprn

  2 221.2.70.52,http://www.baidu.com,windowxprn

相关标签: 网站