22 支付订单信息:如何高效解决for循环产生的内存溢出? 你好,我是高楼。

今天,我们来优化支付订单接口。通过这个接口,我们来看看怎么高效解决for循环产生的内存溢出问题。

对于JVM内存溢出或泄露来说,通常性能人员都能定位到一个应用hang住了。但是,要想进一步判断出应用hang住的原因,并没有那么容易做到。因为内存大时做堆Dump比较费时,更重要的一点是,要想把堆里面的对象和栈关联起来是需要足够的经验和时间的。这也是其中的难点之一。

这节课我就带你来看看怎么解决这个难点。

不过,在此之前,我们会先处理一个熟悉的问题,就是数据库表加索引。很显然,我们在测试这个接口时又遇到它了。虽然我在第16讲中给你重点讲过这个问题,但是这一次的每秒全表扫描比之前要高得多。通过这次的讲解,我希望你能明白只要存在全表扫描,CPU消耗很快就会达到100%。同时,也希望你能借此看清楚全表扫描对CPU消耗的影响。

场景运行数据

首先,我们来运行一下场景:

这是一个典型的TPS太低、响应时间不断上升的性能瓶颈,对于这种瓶颈的分析逻辑,我在前面的课程里已经写过很多次了,相信你已经掌握。下面我们来看一下具体的问题是什么。

架构图

这个接口的链路比较简单:User - Gateway - Order - MySQL,我们大概记在脑子里就好。

第一阶段

在这里我就不拆分时间了,我们直接来看全局监控。因为第一阶段的问题相对来说比较简单,只是性能瓶颈的表现形式和之前不太一样。

全局监控分析

全局监控的数据如下:

看到这张图,你是不是有一种终于见到典型性能瓶颈的感觉?CPU使用率这么高!那还不简单?打栈看代码呀!

不过,我们得先查一下是什么东西导致k8s-worker-1的CPU使用率这么高的。这个worker上运行的服务如下: [root@k8s-master-2 ~]/# kubectl get pods -o wide | grep worker-1 mysql-min-6685c9ff76-4m5xr 1/1 Running 0 4d23h 10.100.230.14 k8s-worker-1 skywalking-es-init-ls7j5 0/1 Completed 0 4d11h 10.100.230.18 k8s-worker-1 [root@k8s-master-2 ~]/#

可以看到,有两个服务在这个worker上跑着,一个是初始化容器,另一个是MySQL。初始化容器已经是完成的状态,那CPU使用率高肯定是因为MySQL了。因此,我们就进到容器中,执行下top,看看资源消耗到什么程度。

什么情况?CPU使用率这么高吗?既然这样,我们就得来查一下MySQL的全局监控了。

在这里,查看全局监控其实是分析MySQL的必要步骤。如果直接查看trx表,中间其实是有些跳跃的,因为查看MySQL的全局监控数据,才是承上启下的一步。我现在把这个过程写全一些,以免你产生困惑。

于是,我们执行一个mysqlreport命令,看看mysql的全局监控数据是怎样的。这里我截取了其中的一些重要信息: __ Questions _____________________ Total 307.93M 912.0/s +Unknown 201.91M 598.0/s %Total: 65.57 DMS 43.20M 128.0/s 14.03 Com_ 32.90M 97.5/s 10.69 QC Hits 29.91M 88.6/s 9.71 COM_QUIT 389 0.0/s 0.00 Slow 20 ms 273.66k 0.8/s 0.09 %DMS: 0.63 Log: DMS 43.20M 128.0/s 14.03 SELECT 32.39M 95.9/s 10.52 74.98 INSERT 10.64M 31.5/s 3.46 24.63 UPDATE 170.15k 0.5/s 0.06 0.39 REPLACE 0 0/s 0.00 0.00 DELETE 0 0/s 0.00 0.00 Com_ 32.90M 97.5/s 10.69 set_option 21.98M 65.1/s 7.14 commit 10.70M 31.7/s 3.48 admin_comma 137.68k 0.4/s 0.04 __ SELECT and Sort ___________________ Scan 20.04M 59.4/s %SELECT: 61.88 Range 0 0/s 0.00 Full join 32 0.0/s 0.00 Range check 0 0/s 0.00 Full rng join 0 0/s 0.00 Sort scan 120 0.0/s Sort range 2.41k 0.0/s Sort mrg pass 0 0/s

你看,DMS中的select占比比较大。其实,如果只是select的占比比较大的话,倒不是什么大事,关键是在下面的数据中还有一个Scan(全表扫描),而全表扫描是典型的性能问题点。

看到这里,我想你应该非常清楚我接下来的套路了吧,就是找SQL,看执行计划,然后确定优化方案。如果你不太清楚,可以再看一下1620,其中都有描述。

定向监控分析

于是,我们现在进入到了定向监控分析阶段。通过查看innodb_trx表,我们看到了SQL中执行慢的语句,它的执行计划如下:

这是很典型的全表扫描,虽然数据量并不大,但是我们也要添加索引。添加索引的语句如下:

这里你要注意一下,在创建索引的时候,如果数据量太大,创建索引可能会卡住很长时间,这要取决于机器单CPU的能力。

优化效果

添加索引之后,我们直接来看一下优化效果:

你看,TPS要上千了!

其实,对于SQL的优化,如果我们只是加一个索引,那就算是非常简单的步骤了,并且效果也会非常好,TPS增加上千倍、甚至上万倍都有可能。可是,如果优化涉及到了业务逻辑,那就麻烦一些了。

如果你觉得这节课只是为了给你讲一个加索引的案例,那你就有些单纯了。下面,我们来看一个复杂的问题。

第二阶段

在我接着执行压力的时候,看到了一个非常有意思的情况,我们来一起折腾折腾!

场景运行数据

你看这张图,在压力持续大概6分钟之后,TPS不稳定也就算了,居然还掉下来了!你掉下来也就算了,居然还断开了!你断开了也就算了,响应时间居然也不增加!

这可怎么分析呢?想要拆分时间都没有一个适合的理由呀!

这时候,就得用上哥的性能分析决策树了。我们把相关的全局监控计数器都看一看,一层层查下去,还好这个接口的逻辑链路也不怎么长。

全局监控分析

按照高老师的习惯,我们首先来看全局监控:

从这张图上,我们什么也没看出来。所以,我们接着查性能分析决策树,一层层地看下去。当看到Order的GC健康状态时,我们看到了下面这些数据: [root@svc-mall-order-568bd9b79-twhcw /]/# jstat -gcutil 1 1s S0 S1 E O M CCS YGC YGCT FGC FGCT GCT 100.00 0.00 100.00 100.00 95.06 92.82 1182 34.966 495 3279.704 3314.670 100.00 0.00 100.00 100.00 95.06 92.82 1182 34.966 495 3279.704 3314.670 100.00 0.00 100.00 100.00 95.06 92.82 1182 34.966 495 3279.704 3314.670 100.00 0.00 100.00 100.00 95.06 92.82 1182 34.966 495 3279.704 3314.670 90.88 0.00 100.00 100.00 95.08 92.82 1182 34.966 495 3286.621 3321.58 100.00 0.00 100.00 100.00 95.08 92.82 1182 34.966 496 3286.621 3321.586 100.00 0.00 100.00 100.00 95.08 92.82 1182 34.966 496 3286.621 3321.586 100.00 0.00 100.00 100.00 95.08 92.82 1182 34.966 496 3286.621 3321.586 100.00 0.00 100.00 100.00 95.08 92.82 1182 34.966 496 3286.621 3321.586 100.00 0.00 100.00 100.00 95.08 92.82 1182 34.966 496 3286.621 3321.586 100.00 0.00 100.00 100.00 95.08 92.82 1182 34.966 496 3286.621 3321.586 ………………………

有没有感到绝望?内存泄漏了!年轻代和年老代的内存都用到100%了!即便是FullGC之后,内存也没回收下来,可怜呀。

定向监控分析

既然是内存被用完了,那我们自然要查一下是什么样的对象把内存用完了。所以,我们进到容器里面,执行jmap -histo 1|more看一眼: num /#instances /#bytes class name ———————————————- 1: 49727866 1397691896 [ 2: 12426103 795269200 [[ 3: 12426038 397633216 com.mysql.cj.protocol.a.result.ByteArrayRo 4: 2002596 384498432 com.dunshan.mall.order.domain.OmsOrderDetai 5: 12426082 198817312 com.mysql.cj.protocol.a.MysqlTextValueDecode 6: 2070085 182840264 [Ljava.lang.Object 7: 6008660 144207840 java.lang.Lon 8: 2207452 132116320 [ 9: 4072895 97749480 java.util.ArrayLis 10: 2002690 80107600 org.apache.ibatis.cache.CacheKe 11: 2039613 65267616 java.util.HashMap$Nod 12: 2197616 52742784 java.lang.Strin 13: 14736 23246672 [Ljava.util.HashMap$Node 14: 36862 3243856 java.lang.reflect.Metho 15: 97195 3110240 java.util.concurrent.ConcurrentHashMap$Nod 16: 62224 2986752 java.util.HashMa 17: 19238 2452264 [ 18: 21482 2360328 java.lang.Clas 19: 26958 1078320 java.util.LinkedHashMap$Entr ………………………

从中我们似乎找到了问题点。你看,这里面有一个MySQL的result占的内存还挺大,同时,在它的下面我们也看到了OmsOrderDetail类,这个类是用来在数据库中查询订单的详细信息的。

从逻辑上来讲,我们看订单的详细信息,实际上是想查询数据库中的信息,进而把查询出来的数据放到应用的内存中。所以,MySQL的result查的数据越多,就会导致应用的JVM内存消耗越大。

你也许会想,接下来是不是直接去看OmsOrderDetail的代码就可以了?你可以去看,但是,我们这个案例并没有那么直接。因为我们已经知道代码了,逻辑也梳理清楚了,所以,再去查看代码其实也看不出什么问题来。

那为什么JVM内存消耗会高呢?这里我们就要查一下线程在做什么动作了: – top [root@k8s-worker-3 ~]/# docker exec -it 66d3639cf4a8 /bin/bash [root@svc-mall-order-568bd9b79-twhcw /]/# top top - 16:10:50 up 11 days, 2:37, 0 users, load average: 3.92, 4.77, 3.35 Tasks: 4 total, 1 running, 3 sleeping, 0 stopped, 0 zombie %Cpu0 : 46.7 us, 8.6 sy, 0.0 ni, 43.6 id, 0.0 wa, 0.0 hi, 0.7 si, 0.3 st %Cpu1 : 23.3 us, 9.2 sy, 0.0 ni, 66.1 id, 0.0 wa, 0.0 hi, 1.0 si, 0.3 st %Cpu2 : 50.0 us, 7.2 sy, 0.3 ni, 41.4 id, 0.0 wa, 0.0 hi, 0.7 si, 0.3 st %Cpu3 : 46.4 us, 8.5 sy, 0.0 ni, 43.7 id, 0.0 wa, 0.0 hi, 1.0 si, 0.3 st %Cpu4 : 50.5 us, 8.0 sy, 0.0 ni, 41.5 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st %Cpu5 : 50.2 us, 3.1 sy, 0.0 ni, 46.1 id, 0.0 wa, 0.0 hi, 0.7 si, 0.0 st KiB Mem : 16265992 total, 171760 free, 9077080 used, 7017152 buff/cache KiB Swap: 0 total, 0 free, 0 used. 6676508 avail Mem PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 1 root 20 0 8788300 4.2g 13860 S 127.9 27.1 115:17.15 java 575 root 20 0 11828 1776 1328 S 0.0 0.0 0:00.01 sh 789 root 20 0 11964 1980 1484 S 0.0 0.0 0:00.02 bash 802 root 20 0 56232 2012 1432 R 0.0 0.0 0:00.05 to – top -Hp 1 top - 16:11:39 up 11 days, 2:38, 0 users, load average: 8.87, 6.09, 3.87 Threads: 85 total, 1 running, 84 sleeping, 0 stopped, 0 zombie %Cpu0 : 55.6 us, 7.1 sy, 0.0 ni, 36.6 id, 0.0 wa, 0.0 hi, 0.3 si, 0.3 st %Cpu1 : 41.3 us, 3.8 sy, 0.0 ni, 54.9 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st %Cpu2 : 30.4 us, 9.9 sy, 0.0 ni, 59.4 id, 0.0 wa, 0.0 hi, 0.3 si, 0.0 st %Cpu3 : 60.3 us, 6.7 sy, 0.0 ni, 32.7 id, 0.0 wa, 0.0 hi, 0.3 si, 0.0 st %Cpu4 : 21.2 us, 9.2 sy, 0.0 ni, 69.6 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st %Cpu5 : 45.6 us, 10.1 sy, 0.3 ni, 43.6 id, 0.0 wa, 0.0 hi, 0.0 si, 0.3 st KiB Mem : 16265992 total, 197656 free, 9071444 used, 6996892 buff/cache KiB Swap: 0 total, 0 free, 0 used. 6681848 avail Mem PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 7 root 20 0 8788300 4.2g 13836 R 96.0 27.1 70:13.42 VM Thread 26 root 20 0 8788300 4.2g 13836 S 0.7 27.1 0:05.70 VM Periodic Tas

执行了上面两个命令之后,你有没有注意到只有一个线程在消耗CPU?根据我们前面查看的GC状态,这个线程应该在忙着做FullGC。我们打印栈信息来确认一下,果然是它!

“VM Thread” os_prio=0 tid=0x00007fb18c0f4800 nid=0x7 runnable

到这里,我们下一步该怎么做就非常清晰了,那就是打印一个堆Dump,来看看对象在内存中的消耗比例。

所以,我们现在执行下面这个命令,来生成堆Dump。 jmap -dump:format=b,file=文件名 pid

然后,我们再把生成的堆Dump下载下来,用MAT打开。

在我打开堆文件的过程中出现了一个小插曲,这也是你需要留意的地方,那就是如果堆Dump的内存太大的话,我们打开堆Dump就会报这样的错:

这个时候我们就要到MemoryAnalyzer.ini文件中,把JVM的最大值参数-Xmx给调大。-Xmx的默认值是1G,至于要调到多大就要看你想打开多大的文件了。如果-Xmx调整得不够大,还会出现下面这样的错误:

在我们费了九牛二虎之力,终于打开堆文件后,看到这样的信息:

有一段内存居然消耗了2.6G!这个可疑的内存点在上图中也出现了(用MAT或jmap来看对象的内存消耗,是两种不同的手段,你可以自己选择。只是在MAT上,我们可以看到可疑的内存消耗点的提醒,而在jmap中是不会给出这样的提醒的,需要我们自己判断),我们点进去看一眼,看看可疑的内存点里具体的对象是什么:

你看,确实是SQL返回的数据量比较大,在上图的列表中居然有1千多万条记录。我们再把相应的栈展开看看:

看到OmsOrderDetail这个类了没?你可能会想,是支付订单信息这个接口有问题!但是证明还不足,我们要确定OmsOrderDetail是不是在这个接口中调用或生成的,才能判断出是不是这个接口的问题。

由于当前使用的接口是paySuccess,我们看一下paySuccess的调用逻辑,发现paySuccess有一个getDetail函数。看到这个“getDetail”,还有其中这个“Detail”字符,你是不是感觉和OmsOrderDetail可以对应上?那我们就来查看一下getDetail对应的代码,看看它和OmsOrderDetail之间是什么关系:

不难发现,getDetail是一个OmsOrderDetail类。这么看来,我们的接口确实用到了OmsOrderDetail类,你是不是有一种抓住元凶的兴奋感?别着急,让人无奈的事情总是会出现的,下面我们看一下这段代码对应的SQL语句是一个什么样的逻辑。

通过查看代码,可以看到这个接口中有两个update和一个select,这三个语句分别是:

update oms_orde ........................ where id = /#{id,jdbcType=BIGINT </update update pms_sku_stoc ........................ where id = /#{id,jdbcType=BIGINT </update <select id="selectByPrimaryKey" parameterType="java.lang.Long" resultMap="BaseResultMap" select <include refid="Base_Column_List" / from pms_sku_stoc where id = /#{id,jdbcType=BIGINT </select 在我查了这三个SQL语句对应的SQL、表和索引之后,发现它们都是精准查找,并且索引也在第一阶段的分析中创建完了,按理说不会出现大的数据量。可是,我们在前面的确看到OmsOrderDetail产生了巨大的数据量,这是怎么一回事? 为了搞清楚这个问题,我们查查还有谁调用了OmsOrderDetail: ![](https://learn.lianglianglee.com/%e4%b8%93%e6%a0%8f/%e9%ab%98%e6%a5%bc%e7%9a%84%e6%80%a7%e8%83%bd%e5%b7%a5%e7%a8%8b%e5%ae%9e%e6%88%98%e8%af%be/assets/08856ba638f9455c9257ad48ab35872b.jpg) 我们找啊找,终于看到了两个for循环(其实在前面的代码段中,也可以看出来)。我点进去一看,发现它们是定时任务。这个时候,问题产生的逻辑就变得清晰了:由于存在for循环,接口调用时就会循环执行某段代码,这就成了JVM内存不断增加的一种可能性。 你还记得吗?在[上](https://time.geekbang.org/column/article/370976)[节课](https://time.geekbang.org/column/article/370976)中,我们其实也定位到了“for循环对应的SQL执行慢”这个问题,但是由于压力持续的时间不够长,内存没有被耗尽,所以内存被消耗光的问题并没有体现出来。而当场景执行的时间变长时,就出现了TPS断断续续的奇怪现象。 ### 优化效果 到这里,我们的优化方案其实非常清楚了,就是做定时任务时不要一下子查那么多数据。因此我在这里加了一个limit,限定一次就查500行。如果处理不过来的话,我们可以直接写一个单独的服务,进行多线程处理。 修改之后,我们再次看看Order服务的JVM内存消耗: [root@svc-mall-order-f7b6d6f7-xl2kp /]/# jstat -gcutil 1 1s S0 S1 E O M CCS YGC YGCT FGC FGCT GCT 0.00 5.44 100.00 96.03 95.03 93.17 43710 1044.757 161 83.635 1128.39 0.00 3.18 82.83 96.21 95.03 93.17 43713 1044.797 161 83.635 1128.43 2.09 0.00 4.54 96.21 95.03 93.17 43718 1044.850 161 83.635 1128.48 1.99 0.00 44.92 96.21 95.03 93.17 43722 1044.891 161 83.635 1128.52 0.00 2.24 1.51 96.22 95.03 93.17 43727 1044.936 161 83.635 1128.57 2.23 0.00 0.00 96.22 95.03 93.17 43732 1044.987 161 83.635 1128.62 40.97 0.00 76.46 96.22 95.03 93.17 43736 1045.051 161 83.635 1128.68 0.00 41.76 47.74 98.81 95.03 93.17 43741 1045.136 161 83.635 1128.77 45.59 0.00 77.61 98.81 95.03 93.17 43746 1045.210 161 83.635 1128.84 0.00 0.00 51.01 52.55 95.03 93.17 43749 1045.270 162 84.021 1129.29 52.34 0.00 60.57 53.23 95.03 93.17 43754 1045.353 162 84.021 1129.37 0.00 51.85 0.00 56.32 95.03 93.17 43759 1045.450 162 84.021 1129.47 0.00 57.97 98.59 58.79 95.03 93.17 43764 1045.526 162 84.021 1129.54 42.02 0.00 83.01 60.83 95.03 93.17 43768 1045.602 162 84.021 1129.62 0.00 42.51 72.69 60.83 95.03 93.17 43773 1045.668 162 84.021 1129.68 28.95 0.00 67.94 61.52 95.03 93.17 43778 1045.735 162 84.021 1129.75 0.00 4.50 32.29 62.74 95.03 93.17 43783 1045.788 162 84.021 1129.80 62.60 0.00 27.04 62.80 95.03 93.17 43788 1045.866 162 84.021 1129.88 0.00 45.52 0.00 65.14 95.03 93.17 43793 1045.950 162 84.021 1129.97 0.00 47.10 71.13 65.14 95.03 93.17 43797 1046.015 162 84.021 1130.03 49.36 0.00 33.30 65.14 95.03 93.17 43802 1046.080 162 84.021 1130.10 5.92 0.00 35.47 67.33 95.03 93.17 43806 1046.132 162 84.021 1130.15 0.00 50.15 65.90 67.37 95.03 93.17 43811 1046.209 162 84.021 1130.23 46.75 0.00 10.39 69.71 95.03 93.17 43816 1046.305 162 84.021 1130.32 47.27 0.00 54.91 69.71 95.03 93.17 43820 1046.364 162 84.021 1130.38 0.00 45.69 46.99 69.71 95.03 93.17 43825 1046.430 162 84.021 1130.45 3.25 0.00 13.65 71.93 95.03 93.17 43830 1046.488 162 84.021 1130.50 0.00 38.00 46.98 71.94 95.03 93.17 43835 1046.551 162 84.021 1130.57 43.74 0.00 37.69 74.44 95.03 93.17 43840 1046.634 162 84.021 1130.65 0.00 42.88 15.64 74.44 95.03 93.17 43845 1046.702 162 84.021 1130.72 0.00 44.13 12.90 74.44 95.03 93.17 43849 1046.756 162 84.021 1130.77 0.00 16.42 33.96 75.79 95.03 93.17 43853 1046.813 162 84.021 1130.83 4.25 0.00 20.10 76.45 95.03 93.17 43858 1046.863 162 84.021 1130.88 0.00 3.22 0.00 76.46 95.03 93.17 43863 1046.914 162 84.021 1130.93 从GC的状态来看,内存现在可以回收得正常一些了。这里我要说明一下,上面的JVM数据不是在场景一开始的时候抓取的,而是在场景执行了很久之后才抓取的。因为我们从上面的数据看到JVM内存已经可以正常回收了,所以,上面的数据是在确定没有内存溢出的前提下得到的有效数据。 不过,这里还是有问题的,不知道你有没有发现,那就是YGC过快。你通过YGC这一列就能看到,我一秒打印一次,一秒就有四五次的YGC,平均每次YGC时间大概在10~20毫秒。虽然这个问题还没有对TPS造成明显的影响,但是也在危险的边缘了。不过,也正因为它现在对TPS还没有造成明显的影响,所以,我在这里先不处理YGC快的问题了。 我们再来重新执行一遍场景,得到的场景执行结果如下: ![](https://learn.lianglianglee.com/%e4%b8%93%e6%a0%8f/%e9%ab%98%e6%a5%bc%e7%9a%84%e6%80%a7%e8%83%bd%e5%b7%a5%e7%a8%8b%e5%ae%9e%e6%88%98%e8%af%be/assets/2201766b16d645bdb2db80f0602db44c.jpg) 你看,TPS是不是有改善?而且不会再出现第二阶段刚开始的那种情况了,因为当时是压到了6分钟之后就开始出现问题了,而在这里,我们压了30多分钟,仍然没有出现掉下来的情况。 可以欢呼了,对不对?对的!我们不用再等翻车了。 ## 总结 在这节课中,我们在分两个阶段描述了两个问题。 第一个问题比较简单,是全表扫描没加索引的问题,我们在前面也有过描述。之所以在这节课中又说一下,是因为SQL把CPU全都吃光了,而这种状态才是全表扫描在性能中比较常见的问题。 第二个问题和内存溢出有关,对于Java的应用来说,我们要把内存的溢出找出来,就必须理清楚代码的逻辑,知道哪个变量在哪里定义,谁在取值,谁在使用,还有层级关系也要划分清楚。现在的开发工具已经非常友好了,可以告诉我们代码的前后调用关系。 在这个例子中,难点其实不在于怎么找到这个内存溢出点,而是在于找到溢出的原因。我们只要看下HeapDump就可以知道溢出点在哪里,而引用这个类的是谁,可能会有很多地方,我们需要一个个去查看。 这个例子的特殊之处在于,我们的接口本身就使用了pms_sku_stock表和OmsOrderDetail类,但是从语句上来看,这个接口不会导致内存溢出。所以,我们才需要找出是谁使用了这个pms_sku_stock表和OmsOrderDetail类,并且会产生溢出。这个转折才是关键。 希望你能在这节课中受益。 ## 课后作业 最后,我给你留两道题,请你思考一下: * 你能否快速找到需要创建索引的SQL? * 在内存不断增长时,如何快速定位出哪个对象导致的? 记得在留言区和我讨论、交流你的想法,每一次思考都会让你更进一步。 如果你读完这篇文章有所收获,也欢迎你分享给你的朋友,共同学习进步。我们下一讲再见! # 参考资料 https://learn.lianglianglee.com/%e4%b8%93%e6%a0%8f/%e9%ab%98%e6%a5%bc%e7%9a%84%e6%80%a7%e8%83%bd%e5%b7%a5%e7%a8%8b%e5%ae%9e%e6%88%98%e8%af%be/22%20%e6%94%af%e4%bb%98%e8%ae%a2%e5%8d%95%e4%bf%a1%e6%81%af%ef%bc%9a%e5%a6%82%e4%bd%95%e9%ab%98%e6%95%88%e8%a7%a3%e5%86%b3for%e5%be%aa%e7%8e%af%e4%ba%a7%e7%94%9f%e7%9a%84%e5%86%85%e5%ad%98%e6%ba%a2%e5%87%ba%ef%bc%9f.md * any list {:toc}