Day 21 进程管理(二)

管理进程状态

当程序运行为进程后,如果希望停止进程,怎么办呢? 那么此时我们可以使用linux的kill命令对进程发送关闭信号。当然除了kill、还有killall,pkill

1.使用kill -l列出当前系统所支持的信号

8.224.png

常用的三个信号

数字编号  信号含义         信号翻译
1          SIGHUP     通常用来重新加载配置文件
9          SIGKILL    强制杀死进程
15         SIGTERM    终止进程,默认kill使用该信号
1.使用kill命令杀死PID的进程

1.给 vsftpd 进程发送信号

[root@oldboy ~]# yum install vsftpd -y 
[root@oldboy ~]# systemctl start vsftpd
[root@oldboy ~]# ps uax|grep vsftpd

2.重新加载vsftpd

[root@oldboy ~]# kill -1  2405
[root@oldboy ~]# psuax|grep vsftpd

3.发送停止信号

[root@oldboy ~]# kill 2405
[root@oldboy ~]# ps uax|grep vsftpd
[root@oldboy ~]# systemctl start vsftpd
[root@oldboy ~]# ps uax|grep vsftpd

4.发送强制停止信号,当无法停止服务时,可强制终止信号

[root@oldboy ~]# kill -9 2421
[root@oldboy ~]# ps uax|grep vsftpd
root 2429 0.0 0.0 112708  976 pts/2  R+ 13:43  0:00 grep --color=auto vsftpd
2.Linux系统中的killall、pkill命令用于杀死指定名字的进程。

通过服务名称杀掉进程

[root@oldboy ~]# pkill nginx
[root@oldboy ~]# killall nginx

使用pkill踢出从远程登录到本机的用户,终止pts/0上所有进程, 并且bash也结束(用户被强制退出)

[root@oldboy ~]# pkill -9 -t pts/0
管理进程kill、killall、pkill
kill PID 正常停止一个程序
kill -1 PID 平滑重载配置文件
kill -9 PID 强制杀死进程 (对于mysql这类有状态的慎用)
pkill Name 批量干掉程序
killall Name 批量干掉程序

管理后台进程

1.什么是后台进程
通常进程都会在终端前台运行,一旦关闭终端,进程也会随着结束,那么此时我们就希望进程能在后台运行,就是将在前台运行的进程放入后台运行,这样即使我们关闭了终端也不影响进程的正常运行。
2.我们为什么要将进程放入后台运行
比如:我们此前在国内服务器往国外服务器传输大文件时,由于网络的问题需要传输很久,如果在传输的过程中出现网络抖动或者不小心关闭了终端则会导致传输失败,如果能将传输的进程放入后台,就能解决此类问题了。
3.使用什么工具将进程放入后台
早期的时候选择使用&符号将进程放入后台,然后在使用jobs、bg、fg等方式查看进程状态,我们使用screen。

1.安装

[root@oldboy ~]# yum install screen -y

2.开启一个screen窗口,指定名称

[root@oldboy ~]# screen -S Linux

3.在screen窗口中执行任务即可
[root@oldboy ~]# wget https://mirrors.aliyun.com/centos/7.6.1810/isos/x86_64/CentOS-7-x86_64-DVD-1810.iso

4.平滑的退出screen,但不会终止screen中的任务。注意: 如果使用exit 才算真的关闭screen窗口

ctrl+a+d
[detached from 2730.Linux]

5.查看当前正在运行的screen有哪些

[root@oldboy ~]# screen -list
There are screens on:
    2730.Linux  (Detached)

6.进入正在运行的screen

[root@oldboy ~]# screen -r 2730
[root@oldboy ~]# screen -r Linux
后台进程该如何管理jobs bg fg screen?
screen -S Name
Ctrl+ad 关闭会话
screen -list ---> screen -r Name| pid

进程的优先级

什么是优先级?

    优先级指的是优先享受资源。

系统中如何给进程配置优先级?

在启动进程时,为不同的进程使用不同的调度策略。
nice 值越高: 表示优先级越低,例如+19,该进程容易将CPU 使用量让给其他进程。
nice 值越低: 表示优先级越高,例如-20,该进程更不倾向于让出CPU。

1.使用top查看nice优先级

 PID USER    PR  NI    VIRT    RES    SHR S %CPU %MEM     TIME+ COMMAND

908 root    20   0  300824   6328   4972 S  0.3  0.3   0:28.45 vmtoolsd              
1   root    20   0  193828   6840   4132 S  0.0  0.3   0:05.45 systemd               
2   root    20   0       0      0      0 S  0.0  0.0   0:00.05 kthreadd              
3   root    20   0       0      0      0 S  0.0  0.0   0:03.44 ksoftirqd/0           
5   root     0 -20       0      0      0 S  0.0  0.0   0:00.00 kworker/0:0H          
6   root    20   0       0      0      0 S  0.0  0.0   0:00.78 kworker/u256:0        
7   root    rt   0       0      0      0 S  0.0  0.0   0:00.00 migration/0           
8   root    20   0       0      0      0 S  0.0  0.0   0:00.00 rcu_bh                
9   root    20   0       0      0      0 S  0.0  0.0   0:02.23 rcu_sched             
10 root     0  -20       0      0      0 S  0.0  0.0   0:00.00 lru-add-drain  

2.使用ps查看进程优先级

[root@oldboy ~]# ps axo command,nice
|grep ssh|grep -v grep
/usr/sbin/sshd -D             0
sshd: root@pts/0              0
[root@oldboy ~]# 
nice优先级

1.开启vim并且指定程序优先级为-5

[root@oldboy ~]#nice -n -5 vim old

2.查看该进程的优先级情况

[root@oldboy ~]# ps aux|grep vim
root 3058  0.3  0.2 151516  5220 pts/5  S<+  16:18  0:00 vim old
root 3060  0.0  0.0 112708   972 pts/1  S+   16:18  0:00 grep --color=auto 
vim

3.退出后优先级消失

[root@oldboy ~]# ps aux|grep vim
root 3065  0.0  0.0 112708   976 pts/1  R+   16:20  0:00 grep --color=auto
 vim
renice优先级

1.查看当前sshd进程当前的优先级状态

[root@oldboy ~]# ps axo pid,command,nice|grep ssh
  1441 /usr/sbin/sshd -D          0
  3037 sshd: root@pts/1           0
  3115 sshd: root@pts/0           0
  3139 grep --color=auto ssh      0

2.调整sshd主进程的优先级

[root@oldboy ~]# renice -n -20 -p 1441
1441 (process ID) old priority 0, new priority -20

3.调整之后记得退出终端

[root@oldboy ~]# ps axo pid,command,nice|grep ssh
  1441 /usr/sbin/sshd -D         -20
  3037 sshd: root@pts/1            0
  3115 sshd: root@pts/0            0
  3143 grep --color=auto ssh       0

4.退出后重新登录

[root@oldboy ~]# ps axo pid,command,nice|grep ssh
  1441 /usr/sbin/sshd -D         -20
  3115 sshd: root@pts/0            0
  3145 sshd: root@pts/1          -20
  3168 grep --color=auto ssh     -20
[root@oldboy ~]# renice -n 19 -p 1441
1441 (process ID) old priority -20, new priority 19
[root@oldboy ~]# ps axo pid,command,nice|grep ssh
  1441 /usr/sbin/sshd -D            19
  3115 sshd: root@pts/0              0
  3145 sshd: root@pts/1            -20
  3173 grep --color=auto ssh         0

调整以后

[root@oldboy ~]# ps aux|grep sshd
root 1441  0.0  0.2 112864  4332 ?      SNs  10:58  0:00 /usr/sbin/sshd -D
root 3115  0.1  0.2 158868  5580 ?      Ss   16:39  0:00 sshd: root@pts/0
root 3145  0.2  0.2 158868  5576 ?      S<s  16:45  0:00 sshd: root@pts/1
root 3175  0.0  0.0 112708   972 pts/0  R+   16:48  0:00 grep --color=auto 
sshd

重新连接

[root@oldboy ~]# ps aux|grep sshd
root 1441  0.0  0.2 112864  4332 ?       SNs  10:58  0:00 /usr/sbin/sshd -D
root 3115  0.1  0.2 158868  5580 ?       Ss   16:39  0:00 sshd: root@pts/0
root 3177  3.3  0.2 158868  5584 ?       SNs  16:49  0:00 sshd: root@pts/1
root 3199  0.0  0.0 112708   976 pts/1   RN+  16:49  0:00 grep --color=auto
 sshd

服务器假死;

什么是假死现象
    所谓假死,就是能ping通,但是ssh登不上去,任何其他操作也没反应。
    建议使用nice命令将sshd的进程优先级调高,这样当系统内存紧张时,还能勉强登录服务器
进行调试,分析故障。

进程优先级是什么?nice、renice? 服务器假死?

优先体验
银行 | 买票 |
nice值越高:表示优先级越低,例如+19该进程容易将CPU 使
用量让给其他进程。
nice 值越低: 表示优先级越高,例如-20,该进程更不倾向于
让出CPU。
NI =0 PR=20
NI =-20 PR=0
NI = 10 PR=30
NI = 19 PR =39
[root@oldboy ~]# nice -n Number 启动一个程序为其设定优先级 
[root@oldboy ~]# renice 调整已经启动过的进程优先级

平均负载

平均负载其实就是单位时
间内的活跃进程数。(处于运行+处于等待运行+不可中断的进程)
[root@oldboy ~]# uptime
 17:17:41 up  6:19,  3 users,  load average: 0.00, 0.01, 0.05
最后三个数字呢,依次则是过去 1 分钟、5 分钟、15 分钟的平均负载(Load Average)

平均负载为多少时合理

最理想的状态是每个 CPU 上都刚好运行着一个进程,这样每个 CPU 都得到了充分利用。所以在
评判平均负载时,首先你要知道系统有几个 CPU,这可以通过 top 命令获取,也可以使用
grep 'model name' /proc/cpuinfo

假设现在在 4、2、1核的CPU上,如果平均负载为 2 时,意味着什么呢?
Q1.在4 个 CPU 的系统上,意味着 CPU 有 50% 的空闲。
Q2.在2 个 CPU 的系统上,意味着所有的 CPU 都刚好被完全占用。
Q3.而1 个 CPU 的系统上,则意味着有一半的进程竞争不到 CPU。

假设我们在有2个 CPU 系统上看到平均负载为 2.73,6.90,12.98
那么说明在过去1 分钟内,系统有 136% 的超载 (2.73/2=136%)
而在过去 5 分钟内,有 345% 的超载 (6.90/2=345%)
而在过去15 分钟内,有 649% 的超载,(12.98/2=649%)
但从整体趋势来看,系统的负载是在逐步的降低。
实际生产环境中,我们应该把系统的平均负载监控起来,然后根据更多的历史数据,判断负载的
变化趋势。

平均负载与 CPU 使用率有什么关系

平均负载是指单位时间内,处于可运行状态和不可中断状态的进程数。所以,它不仅包括了正在
使用 CPU 的进程,还包括等待 CPU 和等待 I/O 的进程。

而 CPU 使用率,是单位时间内 CPU 繁忙情况的统计,跟平均负载并不一定完全对应。比如:
CPU 密集型进程,使用大量 CPU 会导致平均负载升高,此时这两者是一致的;
I/O 密集型进程,等待 I/O 也会导致平均负载升高,但 CPU 使用率不一定很高;
大量等待 CPU 的进程调度也会导致平均负载升高,此时的 CPU 使用率也会比较高。

一,CPU密集型进程

1.首先,我们在第一个终端运行 stress 命令,模拟一个 CPU 使用率 100% 的场景:

[root@oldboy ~]# stress --cpu 2 --timeout 600

2.接着,在第二个终端运行 uptime 查看平均负载的变化情况使用watch -d 参数表示高亮显示变化的区域(注意负载会持续升高

[root@oldboy ~]# watch -d uptime

3.最后,在第三个终端运行 mpstat 查看 CPU 使用率的变化情况 -P ALL 表示监控所有 CPU,后面数字 5 表示间隔 5 秒后输出一组数据

[root@oldboy ~]# mpstat -P ALL 5
Linux 3.10.0-957.27.2.el7.x86_64 (oldboy)   08/22/2019  _x86_64_    (1 CPU)

06:00:39 PM  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
06:00:44 PM  all    0.00   99.80    0.20    0.00    0.00    0.00    0.00    0.00    0.00    0.00
06:00:44 PM    0    0.00   99.80    0.20    0.00    0.00    0.00    0.00    0.00    0.00    0.00

4.从终端二中可以看到,1 分钟的平均负载会慢慢增加到 1.00,而从终端三中还可以看到,正好有一个 CPU 的使用率为 100%,但它的 iowait 只有 0。这说明,平均负载的升高正是由于 CPU 使用率为 100% 。那么,到底是哪个进程导致了 CPU 使用率为 100% 呢?可以使用 pidstat 来查询间隔 5 秒后输出一组数据

[root@oldboy ~]# pidstat -u 5 1
Linux 3.10.0-957.27.2.el7.x86_64 (oldboy)   08/22/2019  _x86_64_    (1 CPU)

06:44:13 PM   UID       PID    %usr %system  %guest    %CPU   CPU  Command
06:44:18 PM     0       908    0.00    0.20    0.00    0.20     0  vmtoolsd
06:44:18 PM     0      3502    0.00    0.20    0.00    0.20     0  kworker/0:0
06:44:18 PM     0      3519   32.87    0.00    0.00   32.87     0  stress
06:44:18 PM     0      3520   33.07    0.00    0.00   33.07     0  stress

场景二:I/O 密集型进程

1.首先还是运行 stress 命令,但这次模拟 I/O 压力,即不停地执行 sync

[root@oldboy ~]# stress --io 1 --timeout 600s

2.然后在第二个终端运行 uptime 查看平均负载的变化情况:

[root@oldboy ~]# watch -d uptime

3.最后第三个终端运行 mpstat 查看 CPU 使用率的变化情况:显示所有 CPU 的指标,并在间隔 5 秒输出一组数据

[root@oldboy ~]# mpstat -P ALL 5
Linux 3.10.0-957.27.2.el7.x86_64 (oldboy)   08/22/2019  _x86_64_    (1 CPU)

06:49:59 PM  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
06:50:04 PM  all    0.80    0.60   97.80    0.00    0.00    0.20    0.00    0.00    0.00    0.60
06:50:04 PM    0    0.80    0.60   97.80    0.00    0.00    0.20    0.00    0.00    0.00    0.60

4.那么到底是哪个进程,导致 iowait 这么高呢?我们还是pidstat 来查询间隔 5 秒后输出一组数据,-u 表示 CPU 指标

[root@oldboy ~]# pidstat -u 5 1
Linux 3.10.0-957.27.2.el7.x86_64 (oldboy)   08/22/2019  _x86_64_    (1 CPU)

06:51:37 PM   UID       PID    %usr %system  %guest    %CPU   CPU  Command
06:51:42 PM     0         9    0.00    0.20    0.00    0.20     0  rcu_sched
06:51:42 PM     0      2631    0.00    6.93    0.00    6.93     0  kworker/u256:1
06:51:42 PM     0      3233    0.00    9.90    0.00    9.90     0  kworker/u256:0
06:51:42 PM     0      3502    0.00    0.20    0.00    0.20     0  kworker/0:0
06:51:42 PM     0      3529    0.20   81.78    0.00   81.98     0  stress

大量进程的场景

当系统中运行进程超出 CPU 运行能力时,就会出现等待 CPU 的进程。
1.首先,我们还是使用 stress,但这次模拟的是 4 个进程

[root@oldboy ~]# stress -c 4 --timeout 600

2.由于系统只有 1 个 CPU,明显比 4 个进程要少得多,因而,系统的 CPU 处于严重过载状态

[root@oldboy ~]# watch -d uptime

3.然后,再运行 pidstat 来看一下进程的情况:间隔 5 秒后输出一组数据

[root@oldboy ~]# pidstat -u 5 1
Linux 3.10.0-957.27.2.el7.x86_64 (oldboy)   08/22/2019  _x86_64_    (1 CPU)

06:56:22 PM   UID       PID    %usr %system  %guest    %CPU   CPU  Command
06:56:27 PM     0         1    0.00    0.20    0.00    0.20     0  systemd
06:56:27 PM     0         9    0.00    0.20    0.00    0.20     0  rcu_sched
06:56:27 PM     0      3630   26.22    0.00    0.00   26.22     0  stress
06:56:27 PM     0      3631   25.00    0.00    0.00   25.00     0  stress
06:56:27 PM     0      3632   25.20    0.00    0.00   25.20     0  stress
06:56:27 PM     0      3633   25.00    0.00    0.00   25.00     0  stress
06:56:27 PM     0      3652    0.00    0.20    0.00    0.20     0  pidstat

归纳一下平均负载与CPU
平均负载提供了一个快速查看系统整体性能的手段,反映了整体的负载情况。但只看平均负载本身,我们并不能直接发现,到底是哪里出现了瓶颈。所以,在理解平均负载时,也要注意:
平均负载高有可能是 CPU 密集型进程导致的;
平均负载高并不一定代表 CPU 使用率高,还有可能是 I/O 更繁忙了;
当发现负载高的时候,你可以使用 mpstat、pidstat 等工具,辅助分析负载的来源

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,847评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,208评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,587评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,942评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,332评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,587评论 1 218
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,853评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,568评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,273评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,542评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,033评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,373评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,031评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,073评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,830评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,628评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,537评论 2 269

推荐阅读更多精彩内容