李勇华的互联网思维
从代码级别的技术细节入手,看性能优化怎么做
2017-12-3 liyonghua





系统性能定义




让我们先来说说如何什么是系统性能。这个定义非常关键,如果我们不清楚什么是系统性能,那么我们将无法定位之。我见过很多朋友会觉得这很容易,但是仔细一问,其实他们并没有一个比较系统的方法,所以,在这里我想告诉大家如何系统地来定位性能。 总体来说,系统性能就是两个事:





  1. Throughput,吞吐量。也就是每秒钟可以处理的请求数,任务数。





  2. Latency, 系统延迟。也就是系统在处理一个请求或一个任务时的延迟。





一般来说,一个系统的性能受到这两个条件的约束,缺一不可。比如,我的系统可以顶得住一百万的并发,但是系统的延迟是 2 分钟以上,那么,这个一百万的负载毫无意义。系统延迟很短,但是吞吐量很低,同样没有意义。所以,一个好的系统的性能测试必然受到这两个条件的同时作用。 有经验的朋友一定知道,这两个东西的一些关系:



系统性能测试


经过上述的说明,我们知道要测试系统的性能,需要我们收集系统的 Throughput 和 Latency 这两个值。




再多说一些,




性能测试有很多很复要的东西,比如:burst test 等。 这里不能一一详述,这里只说了一些和性能调优相关的东西。总之,性能测试是一细活和累活。


定位性能瓶颈


有了上面的铺垫,我们就可以测试到到系统的性能了,再调优之前,我们先来说说如何找到性能的瓶颈。我见过很多朋友会觉得这很容易,但是仔细一问,其实他们并没有一个比较系统的方法。


查看操作系统负载


首先,当我们系统有问题的时候,我们不要急于去调查我们代码,这个毫无意义。我们首要需要看的是操作系统的报告。看看操作系统的 CPU 利用率,看看内存使用率,看看操作系统的 IO,还有网络的 IO,网络链接数,等等。Windows 下的 perfmon 是一个很不错的工具,Linux 下也有很多相关的命令和工具,比如:SystemTap,LatencyTOP,vmstat, sar, iostat, top, tcpdump 等等 。通过观察这些数据,我们就可以知道我们的软件的性能基本上出在哪里。比如:



1、先看 CPU 利用率,如果 CPU 利用率不高,但是系统的 Throughput 和 Latency 上不去了,这说明我们的程序并没有忙于计算,而是忙于别的一些事,比如 IO。(另外,CPU 的利用率还要看内核态的和用户态的,内核态的一上去了,整个系统的性能就下来了。而对于多核 CPU 来说,CPU 0 是相当关键的,如果 CPU 0 的负载高,那么会影响其它核的性能,因为 CPU 各核间是需要有调度的,这靠 CPU0 完成)



2、然后,我们可以看一下 IO 大不大,IO 和 CPU 一般是反着来的,CPU 利用率高则 IO 不大,IO 大则 CPU 就小。关于 IO,我们要看三个事,一个是磁盘文件 IO,一个是驱动程序的 IO(如:网卡),一个是内存换页率。这三个事都会影响系统性能。



3、然后,查看一下网络带宽使用情况,在 Linux 下,你可以使用 iftop, iptraf, ntop, tcpdump 这些命令来查看。或是用 Wireshark 来查看。



4、如果 CPU 不高,IO 不高,内存使用不高,网络带宽使用不高。但是系统的性能上不去。这说明你的程序有问题,比如,你的程序被阻塞了。可能是因为等那个锁,可能是因为等某个资源,或者是在切换上下文。



通过了解操作系统的性能,我们才知道性能的问题,比如:带宽不够,内存不够,TCP 缓冲区不够,等等,很多时候,不需要调整程序的,只需要调整一下硬件或操作系统的配置就可以了


使用 Profiler 测试


接下来,我们需要使用性能检测工具,也就是使用某个 Profiler 来差看一下我们程序的运行性能。如:Java 的 JProfiler/TPTP/CodePro Profiler,GNU 的 gprof,IBM 的 PurifyPlus,Intel 的 VTune,AMD 的 CodeAnalyst,还有 Linux 下的 OProfile/perf,后面两个可以让你对你的代码优化到 CPU 的微指令级别,如果你关心 CPU 的 L1/L2 的缓存调优,那么你需要考虑一下使用 VTune。 使用这些 Profiler 工具,可以让你程序中各个模块函数甚至指令的很多东西,如:运行的时间 ,调用的次数,CPU 的利用率,等等。这些东西对我们来说非常有用。



我们重点观察运行时间最多,调用次数最多的那些函数和指令。这里注意一下,对于调用次数多但是时间很短的函数,你可能只需要轻微优化一下,你的性能就上去了(比如:某函数一秒种被调用 100 万次,你想想如果你让这个函数提高 0.01 毫秒的时间 ,这会给你带来多大的性能)



使用 Profiler 有个问题我们需要注意一下,因为 Profiler 会让你的程序运行的性能变低,像 PurifyPlus 这样的工具会在你的代码中插入很多代码,会导致你的程序运行效率变低,从而没发测试出在高吞吐量下的系统的性能,对此,一般有两个方法来定位系统瓶颈:



1、在你的代码中自己做统计,使用微秒级的计时器和函数调用计算器,每隔 10 秒把统计 log 到文件中。



2、分段注释你的代码块,让一些函数空转,做 Hard Code 的 Mock,然后再测试一下系统的 Throughput 和 Latency 是否有质的变化,如果有,那么被注释的函数就是性能瓶颈,再在这个函数体内注释代码,直到找到最耗性能的语句。



最后再说一点,对于性能测试,不同的 Throughput 会出现不同的测试结果,不同的测试数据也会有不同的测试结果。所以,用于性能测试的数据非常重要,性能测试中,我们需要观测试不同 Throughput 的结果


常见的系统瓶颈


下面这些东西是我所经历过的一些问题,也许并不全,也许并不对,大家可以补充指正,我纯属抛砖引玉。



一般来说,性能优化也就是下面的几个策略:




总之,根据 2:8 原则来说,20% 的代码耗了你 80% 的性能,找到那 20% 的代码,你就可以优化那 80% 的性能。下面的一些东西都是我的一些经验,我只例举了一些最有价值的性能调优的的方法,供你参考,也欢迎补充。


算法调优


算法非常重要,好的算法会有更好的性能。举几个我经历过的项目的例子,大家可以感觉一下。



代码调优


从我的经验上来说,代码上的调优有下面这几点:



字符串操作。这是最费系统性能的事了,无论是 strcpy, strcat 还是 strlen,最需要注意的是字符串子串匹配。所以,能用整型最好用整型。举几个例子,第一个例子是 N 年前做银行的时候,我的同事喜欢把日期存成字符串(如:2012-05-29 08:30:02),我勒个去,一个 select  where between 语句相当耗时。



另一个例子是,我以前有个同事把一些状态码用字符串来处理,他的理由是,这样可以在界面上直接显示,后来性能调优的时候,我把这些状态码全改成整型,然后用位操作查状态,因为有一个每秒钟被调用了 150K 次的函数里面有三处需要检查状态,经过改善以后,整个系统的性能上升了 30% 左右。还有一个例子是,我以前从事的某个产品编程规范中有一条是要在每个函数中把函数名定义出来,如:const char fname[]=”functionName()”, 这是为了好打日志,但是为什么不声明成 static 类型的呢?



多线程调优。有人说,thread is evil,这个对于系统性能在某些时候是个问题。因为多线程瓶颈就在于互斥和同步的锁上,以及线程上下文切换的成本,怎么样的少用锁或不用锁是根本(比如:多版本并发控制 (MVCC) 在分布式系统中的应用 中说的乐观锁可以解决性能问题),此外,还有读写锁也可以解决大多数是读操作的并发的性能问题。



这里多说一点在 C++ 中,我们可能会使用线程安全的智能指针 AutoPtr 或是别的一些容器,只要是线程安全的,其不管三七二十一都要上锁,上锁是个成本很高的操作,使用 AutoPtr 会让我们的系统性能下降得很快,如果你可以保证不会有线程并发问题,那么你应该不要用 AutoPtr。我记得我上次我们同事去掉智能指针的引用计数,让系统性能提升了 50% 以上。对于 Java 对象的引用计数,如果我猜的没错的话,到处都是锁,所以,Java 的性能问题一直是个问题。另外,线程不是越多越好,线程间的调度和上下文切换也是很夸张的事,尽可能的在一个线程里干,尽可能的不要同步线程。这会让你有很多的性能。



内存分配。不要小看程序的内存分配。malloc/realloc/calloc 这样的系统调非常耗时,尤其是当内存出现碎片的时候。我以前的公司出过这样一个问题——在用户的站点上,我们的程序有一天不响应了,用 GDB 跟进去一看,系统 hang 在了 malloc 操作上,20 秒都没有返回,重启一些系统就好了。这就是内存碎片的问题。这就是为什么很多人抱怨 STL 有严重的内存碎片的问题,因为太多的小内存的分配释放了。有很多人会以为用内存池可以解决这个问题,但是实际上他们只是重新发明了 Runtime-C 或操作系统的内存管理机制,完全于事无补。



当然解决内存碎片的问题还是通过内存池,具体来说是一系列不同尺寸的内存池(这个留给大家自己去思考)。当然,少进行动态内存分配是最好的。说到内存池就需要说一下池化技术。比如线程池,连接池等。池化技术对于一些短作业来说(如 http 服务) 相当相当的有效。这项技术可以减少链接建立,线程创建的开销,从而提高性能。



异步操作。我们知道 Unix 下的文件操作是有 block 和 non-block 的方式的,像有些系统调用也是 block 式的,如:Socket 下的 select,Windows 下的 WaitforObject 之类的,如果我们的程序是同步操作,那么会非常影响性能,我们可以改成异步的,但是改成异步的方式会让你的程序变复杂。异步方式一般要通过队列,要注间队列的性能问题,另外,异步下的状态通知通常是个问题,比如消息事件通知方式,有 callback 方式,等,这些方式同样可能会影响你的性能。但是通常来说,异步操作会让性能的吞吐率有很大提升(Throughput),但是会牺牲系统的响应时间(latency)。这需要业务上支持。



语言和代码库。我们要熟悉语言以及所使用的函数库或类库的性能。比如:STL 中的很多容器分配了内存后,那怕你删除元素,内存也不会回收,其会造成内存泄露的假像,并可能造成内存碎片问题。再如,STL 某些容器的 size()==0  和 empty() 是不一样的,因为,size() 是 O(n) 复杂度,empty() 是 O(1) 的复杂度,这个要小心。Java 中的 JVM 调优需要使用的这些参数:-Xms -Xmx -Xmn -XX:SurvivorRatio -XX:MaxTenuringThreshold,还需要注意 JVM 的 GC,GC 的霸气大家都知道,尤其是 full GC(还整理内存碎片),他就像“恐龙特级克赛号”一样,他运行的时候,整个世界的时间都停止了。


网络调优


关于网络调优,尤其是 TCP Tuning(你可以以这两个关键词在网上找到很多文章),这里面有很多很多东西可以说。看看 Linux 下 TCP/IP 的那么多参数就知道了(顺便说一下,你也许不喜欢 Linux,但是你不能否认 Linux 给我们了很多可以进行内核调优的权力)。强烈建议大家看看《TCP/IP 详解 卷 1: 协议》这本书。我在这里只讲一些概念上的东西。


 TCP 调优


我们知道 TCP 链接是有很多开销的,一个是会占用文件描述符,另一个是会开缓存,一般来说一个系统可以支持的 TCP 链接数是有限的,我们需要清楚地认识到 TCP 链接对系统的开销是很大的。正是因为 TCP 是耗资源的,所以,很多攻击都是让你系统上出现大量的 TCP 链接,把你的系统资源耗尽。比如著名的 SYNC Flood 攻击。



所以,我们要注意配置 KeepAlive 参数,这个参数的意思是定义一个时间,如果链接上没有数据传输,系统会在这个时间发一个包,如果没有收到回应,那么 TCP 就认为链接断了,然后就会把链接关闭,这样可以回收系统资源开销。(注:HTTP 层上也有 KeepAlive 参数)对于像 HTTP 这样的短链接,设置一个 1-2 分钟的 keepalive 非常重要。这可以在一定程度上防止 DoS 攻击。有下面几个参数(下面这些参数的值仅供参考):


net.ipv4.tcp_keepalive_probes = 5
net.ipv4.tcp_keepalive_intvl = 20
net.ipv4.tcp_fin_timeout = 30


对于 TCP 的 TIME_WAIT 这个状态,主动关闭的一方进入 TIME_WAIT 状态,TIME_WAIT 状态将持续 2 个 MSL(Max Segment Lifetime),默认为 4 分钟,TIME_WAIT 状态下的资源不能回收。有大量的 TIME_WAIT 链接的情况一般是在 HTTP 服务器上。对此,有两个参数需要注意,


net.ipv4.tcp_tw_reuse=1
net.ipv4.tcp_tw_recycle=1


前者表示重用 TIME_WAIT,后者表示回收 TIME_WAIT 的资源。



TCP 还有一个重要的概念叫 RWIN(TCP Receive Window Size),这个东西的意思是,我一个 TCP 链接在没有向 Sender 发出 ack 时可以接收到的最大的数据包。为什么这个很重要?因为如果 Sender 没有收到 Receiver 发过来 ack,Sender 就会停止发送数据并会等一段时间,如果超时,那么就会重传。这就是为什么 TCP 链接是可靠链接的原因。重传还不是最严重的,如果有丢包发生的话,TCP 的带宽使用率会马上受到影响(会盲目减半),再丢包,再减半,然后如果不丢包了,就逐步恢复。相关参数如下:


net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216


一般来说,理论上的 RWIN 应该设置成:吞吐量  * 回路时间。Sender 端的 buffer 应该和 RWIN 有一样的大小,因为 Sender 端发送完数据后要等 Receiver 端确认,如果网络延时很大,buffer 过小了,确认的次数就会多,于是性能就不高,对网络的利用率也就不高了。也就是说,对于延迟大的网络,我们需要大的 buffer,这样可以少一点 ack,多一些数据,对于响应快一点的网络,可以少一些 buffer。



因为,如果有丢包(没有收到 ack),buffer 过大可能会有问题,因为这会让 TCP 重传所有的数据,反而影响网络性能。(当然,网络差的情况下,就别玩什么高性能了) 所以,高性能的网络重要的是要让网络丢包率非常非常地小(基本上是用在 LAN 里),如果网络基本是可信的,这样用大一点的 buffer 会有更好的网络传输性能(来来回回太多太影响性能了)。



另外,我们想一想,如果网络质量非常好,基本不丢包,而业务上我们不怕偶尔丢几个包,如果是这样的话,那么,我们为什么不用速度更快的 UDP 呢?你想过这个问题了吗?


 UDP 调优


说到 UDP 的调优,有一些事我想重点说一样,那就是 MTU——最大传输单元(其实这对 TCP 也一样,因为这是链路层上的东西)。所谓最大传输单元,你可以想像成是公路上的公交车,假设一个公交车可以最多坐 70 人,带宽就像是公路的车道数一样,如果一条路上最多可以容下 100 辆公交车,那意味着我最多可以运送 7000 人,但是如果公交车坐不满,比如平均每辆车只有 20 人,那么我只运送了 2000 人,于是我公路资源(带宽资源)就被浪费了。 所以,我们对于一个 UDP 的包,我们要尽量地让他大到 MTU 的最大尺寸再往网络上传,这样可以最大化带宽利用率。



对于这个 MTU,以太网是 1500 字节,光纤是 4352 字节,802.11 无线网是 7981。但是,当我们用 TCP/UDP 发包的时候,我们的有效负载 Payload 要低于这个值,因为 IP 协议会加上 20 个字节,UDP 会加上 8 个字节(TCP 加的更多),所以,一般来说,你的一个 UDP 包的最大应该是 1500-8-20=1472,这是你的数据的大小。当然,如果你用光纤的话, 这个值就可以更大一些。(顺便说一下,对于某些 NB 的千光以态网网卡来说,在网卡上,网卡硬件如果发现你的包的大小超过了 MTU,其会帮你做 fragment,到了目标端又会帮你做重组,这就不需要你在程序中处理了)



再多说一下,使用 Socket 编程的时候,你可以使用 setsockopt() 设置 SO_SNDBUF/SO_RCVBUF 的大小,TTL 和 KeepAlive 这些关键的设置,当然,还有很多,具体你可以查看一下 Socket 的手册。



最后说一点,UDP 还有一个最大的好处是 multi-cast 多播,这个技术对于你需要在内网里通知多台结点时非常方便和高效。而且,多播这种技术对于机会的水平扩展(需要增加机器来侦听多播信息)也很有利。


 网卡调优


对于网卡,我们也是可以调优的,这对于千兆以及网网卡非常必要,在 Linux 下,我们可以用 ifconfig 查看网上的统计信息,如果我们看到 overrun 上有数据,我们就可能需要调整一下 txqueuelen 的尺寸(一般默认为 1000),我们可以调大一些,如:ifconfig eth0 txqueuelen 5000。Linux 下还有一个命令叫:ethtool 可以用于设置网卡的缓冲区大小。在 Windows 下,我们可以在网卡适配器中的高级选项卡中调整相关的参数(如:Receive Buffers, Transmit Buffer 等,不同的网卡有不同的参数)。把 Buffer 调大对于需要大数据量的网络传输非常有效。


 其它网络性能


关于多路复用技术,也就是用一个线程来管理所有的 TCP 链接,有三个系统调用要重点注意:一个是 select,这个系统调用只支持上限 1024 个链接,第二个是 poll,其可以突破 1024 的限制,但是 select 和 poll 本质上是使用的轮询机制,轮询机制在链接多的时候性能很差,因主是 O(n) 的算法,所以,epoll 出现了,epoll 是操作系统内核支持的,仅当在链接活跃时,操作系统才会 callback,这是由操作系统通知触发的,但其只有 Linux Kernel 2.6 以后才支持(准确说是 2.5.44 中引入的),当然,如果所有的链接都是活跃的,过多的使用 epoll_ctl 可能会比轮询的方式还影响性能,不过影响的不大。



另外,关于一些和 DNS Lookup 的系统调用要小心,比如:gethostbyaddr/gethostbyname,这个函数可能会相当的费时,因为其要到网络上去找域名,因为 DNS 的递归查询,会导致严重超时,而又不能通过设置什么参数来设置 time out,对此你可以通过配置 hosts 文件来加快速度,或是自己在内存中管理对应表,在程序启动时查好,而不要在运行时每次都查。



另外,在多线程下面,gethostbyname 会一个更严重的问题,就是如果有一个线程的 gethostbyname 发生阻塞,其它线程都会在 gethostbyname 处发生阻塞,这个比较变态,要小心。(你可以试试 GNU 的 gethostbyname_r(),这个的性能要好一些) 这种到网上找信息的东西很多,比如,如果你的 Linux 使用了 NIS,或是 NFS,某些用户或文件相关的系统调用就很慢,所以要小心。


系统调优
 I/O 模型


前面说到过 select/poll/epoll 这三个系统调用,我们都知道,Unix/Linux 下把所有的设备都当成文件来进行 I/O,所以,那三个操作更应该算是 I/O 相关的系统调用。说到  I/O 模型,这对于我们的 I/O 性能相当重要,我们知道,Unix/Linux 经典的 I/O 方式是:



第一种,同步阻塞式 I/O,这个不说了。



第二种,同步无阻塞方式。其通过 fctnl 设置 O_NONBLOCK 来完成。



第三种,对于 select/poll/epoll 这三个是 I/O 不阻塞,但是在事件上阻塞,算是:I/O 异步,事件同步的调用。



第四种,AIO 方式。这种 I/O 模型是一种处理与 I/O 并行的模型。I/O 请求会立即返回,说明请求已经成功发起了。在后台完成 I/O 操作时,向应用程序发起通知,通知有两种方式:一种是产生一个信号,另一种是执行一个基于线程的回调函数来完成这次 I/O 处理过程。



第四种因为没有任何的阻塞,无论是 I/O 上,还是事件通知上,所以,其可以让你充分地利用 CPU,比起第二种同步无阻塞好处就是,第二种要你一遍一遍地去轮询。Nginx 之所所以高效,是其使用了 epoll 和 AIO 的方式来进行 I/O 的。



再说一下 Windows 下的 I/O 模型,



a)一个是 WriteFile 系统调用,这个系统调用可以是同步阻塞的,也可以是同步无阻塞的,关于看文件是不是以 Overlapped 打开的。关于同步无阻塞,需要设置其最后一个参数 Overlapped,微软叫 Overlapped I/O,你需要 WaitForSingleObject 才能知道有没有写完成。这个系统调用的性能可想而知。



b)另一个叫 WriteFileEx 的系统调用,其可以实现异步 I/O,并可以让你传入一个 callback 函数,等 I/O 结束后回调之, 但是这个回调的过程 Windows 是把 callback 函数放到了 APC(Asynchronous Procedure Calls)的队列中,然后,只用当应用程序当前线程成为可被通知状态(Alterable)时,才会被回调。只有当你的线程使用了这几个函数时 WaitForSingleObjectEx, WaitForMultipleObjectsEx, MsgWaitForMultipleObjectsEx, SignalObjectAndWait 和 SleepEx,线程才会成为 Alterable 状态。可见,这个模型,还是有 wait,所以性能也不高。



c)然后是 IOCP – IO Completion Port,IOCP 会把 I/O 的结果放在一个队列中,但是,侦听这个队列的不是主线程,而是专门来干这个事的一个或多个线程去干(老的平台要你自己创建线程,新的平台是你可以创建一个线程池)。IOCP 是一个线程池模型。这个和 Linux 下的 AIO 模型比较相似,但是实现方式和使用方式完全不一样。



当然,真正提高 I/O 性能方式是把和外设的 I/O 的次数降到最低,最好没有,所以,对于读来说,内存 cache 通常可以从质上提升性能,因为内存比外设快太多了。对于写来说,cache 住要写的数据,少写几次,但是 cache 带来的问题就是实时性的问题,也就是 latency 会变大,我们需要在写的次数上和相应上做权衡。


 多核 CPU 调优


关于 CPU 的多核技术,我们知道,CPU0 是很关键的,如果 0 号 CPU 被用得过狠的话,别的 CPU 性能也会下降,因为 CPU0 是有调整功能的,所以,我们不能任由操作系统负载均衡,因为我们自己更了解自己的程序,所以,我们可以手动地为其分配 CPU 核,而不会过多地占用 CPU0,或是让我们关键进程和一堆别的进程挤在一起。




多核 CPU 还有一个技术叫 NUMA 技术(Non-Uniform Memory Access)。传统的多核运算是使用 SMP(Symmetric Multi-Processor ) 模式,多个处理器共享一个集中的存储器和 I/O 总线。于是就会出现一致存储器访问的问题,一致性通常意味着性能问题。NUMA 模式下,处理器被划分成多个 node, 每个 node 有自己的本地存储器空间。关于 NUMA 的一些技术细节,你可以查看一下这篇文章《Linux 的 NUMA 技术》,在 Linux 下,对 NUMA 调优的命令是:numactl 。如下面的命令:(指定命令“myprogram arg1 arg2”运行在 node 0 上,其内存分配在 node 0 和 1 上)


numactl --cpubind=0 --membind=0,1 myprogram arg1 arg2


当然,上面这个命令并不好,因为内存跨越了两个 node,这非常不好。最好的方式是只让程序访问和自己运行一样的 node,如:


$ numactl --membind 1 --cpunodebind 1 --localalloc myapplication

文件系统调优


关于文件系统,因为文件系统也是有 cache 的,所以,为了让文件系统有最大的性能。首要的事情就是分配足够大的内存,这个非常关键,在 Linux 下可以使用 free 命令来查看 free/used/buffers/cached,理想来说,buffers 和 cached 应该有 40% 左右。然后是一个快速的硬盘控制器,SCSI 会好很多。最快的是 Intel SSD 固态硬盘,速度超快,但是写次数有限。



接下来,我们就可以调优文件系统配置了,对于 Linux 的 Ext3/4 来说,几乎在所有情况下都有所帮助的一个参数是关闭文件系统访问时间,在 /etc/fstab 下看看你的文件系统 有没有 noatime 参数(一般来说应该有),还有一个是 dealloc,它可以让系统在最后时刻决定写入文件发生时使用哪个块,可优化这个写入程序。还要注间一下三种日志模式:data=journal、data=ordered 和 data=writeback。默认设置 data=ordered 提供性能和防护之间的最佳平衡。



当然,对于这些来说,ext4 的默认设置基本上是最佳优化了。



这里介绍一个 Linux 下的查看 I/O 的命令—— iotop,可以让你看到各进程的磁盘读写的负载情况。



其它还有一些关于 NFS、XFS 的调优,大家可以上 google 搜索一些相关优化的文章看看。


数据库调优


数据库调优并不是我的强项,我就仅用我非常有限的知识说上一些吧。注意,下面的这些东西并不一定正确,因为在不同的业务场景,不同的数据库设计下可能会得到完全相反的结论,所以,我仅在这里做一些一般性的说明,具体问题还要具体分析。


 数据库引擎调优


我对数据库引擎不是熟,但是有几个事情我觉得是一定要去了解的。



 SQL 语句优化


关于 SQL 语句的优化,首先也是要使用工具,比如:MySQL SQL Query Analyzer,Oracle SQL Performance Analyzer,或是微软 SQL Query Analyzer,基本上来说,所有的 RMDB 都会有这样的工具,来让你查看你的应用中的 SQL 的性能问题。 还可以使用 explain 来看看 SQL 语句最终 Execution Plan 会是什么样的。



还有一点很重要,数据库的各种操作需要大量的内存,所以服务器的内存要够,优其应对那些多表查询的 SQL 语句,那是相当的耗内存。



下面我根据我有限的数据库 SQL 的知识说几个会有性能问题的 SQL:



全表检索。比如:select * from user where lastname = “xxxx”,这样的 SQL 语句基本上是全表查找,线性复杂度 O(n),记录数越多,性能也越差(如:100 条记录的查找要 50ms,一百万条记录需要 5 分钟)。对于这种情况,我们可以有两种方法提高性能:一种方法是分表,把记录数降下来,另一种方法是建索引(为 lastname 建索引)。索引就像是 key-value 的数据结构一样,key 就是 where 后面的字段,value 就是物理行号,对索引的搜索复杂度是基本上是 O(log(n)) ——用 B-Tree 实现索引(如:100 条记录的查找要 50ms,一百万条记录需要 100ms)。



索引。对于索引字段,最好不要在字段上做计算、类型转换、函数、空值判断、字段连接操作,这些操作都会破坏索引原本的性能。当然,索引一般都出现在 Where 或是 Order by 字句中,所以对 Where 和 Order by 子句中的子段最好不要进行计算操作,或是加上什么 NOT 之类的,或是使用什么函数。



多表查询。关系型数据库最多的操作就是多表查询,多表查询主要有三个关键字,EXISTS,IN 和 JOIN(关于各种 join,可以参看图解 SQL 的 Join 一文)。基本来说,现代的数据引擎对 SQL 语句优化得都挺好的,JOIN 和 IN/EXISTS 在结果上有些不同,但性能基本上都差不多。有人说,EXISTS 的性能要好于 IN,IN 的性能要好于 JOIN,我各人觉得,这个还要看你的数据、schema 和 SQL 语句的复杂度,对于一般的简单的情况来说,都差不多,所以千万不要使用过多的嵌套,千万不要让你的 SQL 太复杂,宁可使用几个简单的 SQL 也不要使用一个巨大无比的嵌套 N 级的 SQL。



还有人说,如果两个表的数据量差不多,Exists 的性能可能会高于 In,In 可能会高于 Join,如果这两个表一大一小,那么子查询中,Exists 用大表,In 则用小表。这个,我没有验证过,放在这里让大家讨论吧。另,有一篇关于 SQL Server 的文章大家可以看看《IN vs JOIN vs EXISTS》



JOIN 操作。有人说,Join 表的顺序会影响性能,只要 Join 的结果集是一样,性能和 join 的次序无关。因为后台的数据库引擎会帮我们优化的。Join 有三种实现算法,嵌套循环,排序归并,和 Hash 式的 Join。(MySQL 只支持第一种)




还是那句话,具体要看什么样的数据,什么样的 SQL 语句,你才知道用哪种方法是最好的。



部分结果集。我们知道 MySQL 里的 Limit 关键字,Oracle 里的 rownum,SQL Server 里的 Top 都是在限制前几条的返回结果。这给了我们数据库引擎很多可以调优的空间。一般来说,返回 top n 的记录数据需要我们使用 order by,注意在这里我们需要为 order by 的字段建立索引。有了被建索引的 order by 后,会让我们的 select 语句的性能不会被记录数的所影响。使用这个技术,一般来说我们前台会以分页方式来显现数据,Mysql 用的是 OFFSET,SQL Server 用的是 FETCH NEXT,这种 Fetch 的方式其实并不好是线性复杂度,所以,如果我们能够知道 order by 字段的第二页的起始值,我们就可以在 where 语句里直接使用>= 的表达式来 select,这种技术叫 seek,而不是 fetch,seek 的性能比 fetch 要高很多。



字符串。正如我前面所说的,字符串操作对性能上有非常大的恶梦,所以,能用数据的情况就用数字,比如:时间,工号,等。



全文检索。千万不要用 Like 之类的东西来做全文检索,如果要玩全文检索,可以尝试使用 Sphinx。



其它。




关于 SQL 语句的优化,网上有很多文章, 不同的数据库引擎有不同的优化技巧,正如本站以前转发的《MySQL 性能优化的最佳 20+ 条经验》:



http://coolshell.cn/articles/1846.html



先写这么多吧,欢迎大家指正补充。








·END·






发表评论:
昵称

邮件地址 (选填)

个人主页 (选填)

内容