Skip to main content

字符串匹配:KMP 算法



https://liam0205.me/2016/12/20/KMP-Algorithm/
所谓字符串匹配,就是拿着一个字符串(也称为模式串),去到另一个字符串(母串)里去查找完全相同的子串的过程。显然,只要能定义相等关系,那么字符串匹配算法可以扩展到任意的序列匹配算法。因此,这会是一类用途很广的算法。
解决字符串匹配问题,最朴素的办法就是拿着模式串逐字符地沿着待匹配的串去比对,每次向前移动一个字符,直到完全匹配或者找不到匹配。显然,这个算法的复杂度是 O(nm)n 表示母串的长度,m 表示模式串的长度),是比较高的。
这里介绍的 KMP 算法,能够在 O(n) 时间内完成任务,它是由 Donald Knuth/James H. Morris/Vaughan Pratt 发明的。当然,你也可以称之为「看毛片算法」——你高兴就好。

从朴素算法开始

为了体现 KMP 算法的优势,也为了更容易地说明问题,我们先从最朴素的算法开始。
假设有
  • 母串 S: ababaababc
  • 模式串 P: ababc
现在我们的任务是在母串中找到与模式串完全相同的子串。朴素地算法是这样的:
  1. 将母串与模式串从头对齐;
  2. 从模式串的头部开始与母串对比
    a. 若字符相同,则继续对比;
    b. 若字符相同,且当前字符是模式串的最后一个字符,则匹配成功;
    c. 若字符不同,则将模式串沿着母串向后移动一位,再从头开始匹配;
    d. 若字符不同,且当前字符是母串的最后一个字符,则匹配失败。
在我们的示例里,具体的操作流程是这样的。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
-> # 从头开始匹配
abab|aababc
abab|c
-> # 匹配失败,移动一位,继续尝试匹配
a|babaababc
 |ababc
-> # 匹配失败,移动一位,继续尝试匹配
ababa|ababc
  aba|bc
-> # 匹配失败,移动一位,继续尝试匹配
aba|baababc
   |ababc
-> # 匹配失败,移动一位,继续尝试匹配
ababa|ababc
    a|babc
-> # 匹配失败,移动一位,继续尝试匹配
ababaababc|
     ababc|
-> # 匹配成功,返回子串在母串中的位置

对多余工作的分析

优化算法一个很重要的方法,就是寻找重复/多余的工作,然后用合适的方法去除它们。因此,我们应该试着分析上述朴素算法,看看有哪些工作是多余的,或者是重复的。
1
2
3
4
5
6
-> # 从头开始匹配
abab|aababc
abab|c
-> # 匹配失败,移动一位,继续尝试匹配
a|babaababc
 |ababc
我们来观察第一次匹配失败,沿着母串移动模式串的位置的过程。匹配失败,是因为 S[0:4] == P[0:4] 但是 S[4] != P[4]。于是我们将 P[0] 对齐 S[1],继续尝试匹配。但是,实际上在验证 S[0:4] == P[0:4]的过程中,我们已经知道了 S[0] == P[0] and S[0] != S[1]。因此,如果将 P[0]  S[1] 对齐,那么必然是匹配失败的。
既然在匹配的过程中,我们获得的信息,已经足够说明仅仅移动一位,必然匹配失败。那么这就是多余的工作,我们应该想办法规避掉这些多余的工作。那么,我们应该怎么办呢?
注意,在第一次尝试匹配的过程中,我们确定了 S[0:4] == P[0:4],又容易观察,对于模式串 P 来说,有 P[0:2] == P[4 - 2:4];即模式串 P 成功匹配的部分中,它的首两个字符与末两个字符完全相同。于是,因为 S[0:4] == P[0:4],所以我们有 S[4 - 2:4] == P[4 - 2:4] == P[0:2]。这也就是说,如果将模式串对齐 S[4 - 2] 位置,我们天然就能确认两个位置的匹配,只需要接着向后尝试匹配就可以了——KMP 算法就是这样做的。
总结起来就是:
1
2
3
if S[i:i + j] == P[0:j] and S[i + j] != P[j]: # i + j < n and j < m
    k = argmax(k){P[0:k] == P[j - k:j]} # 0 <= k < j
    align P[0] to S[i + j - k]
在这个优化中,我们让模式串尽可能快地沿着母串向前跳跃;同时尽可能多地保留了已匹配的信息,避免接下来重复匹配。这一优化的关键,就是对每一个 j,在模式串中寻找最大的 k,使得 P[0:k] == P[j - k:j]。显然,对于给定的模式串 Pk 的取值只与 j 有关;我们记作 k=f(j;P),并称之为模式串 P 的部分匹配函数。接下来,我们要看看如何快速地得到这个部分匹配函数。

部分匹配函数

根据定义,不难发现
f(1)=0.

接下来我们看一个稍微复杂一点的模式串 P = ababacb
1
2
3
j:    0 1 2 3 4 5 6
P:    a b a b a c b
f(j):   0 0 1 2 3 ?
我们来验证一下
1
2
3
4
j == 2: P[0:0](None) == P[j - 0:j](None) and P[0:1](a)    != P[j - 1:j](b)
j == 3: P[0:1](a)    == P[j - 1:j](a)    and P[0:2](ab)   != P[j - 2:j](ba)
j == 4: P[0:2](ab)   == P[j - 2:j](ab)   and P[0:2](aba)  != P[j - 2:j](bab)
j == 5: P[0:3](aba)  == P[j - 3:j](aba)  and P[0:4](abab) != P[j - 4:j](baba)
很好,没有问题。接下来我们看 f(6) 是多少。遇到这样的问题,我们就会想,f(j) 组成的序列,后项是否会与前项有关,存在某种递推关系呢?因此我们会做这样的分析。
首先,因为 f(5)=3,所以我们知道 P[0:3] == P[5 - 3:5] == P[2:5]。现在,如果有 P[3] == P[5],也就是 P[f(5)] == P[5],那么 f(6)=f(5)+1。但是现在 P[3] == b != P[5] == c,因此 f(6)=f(5)+1 不成立。
接下来,我们考虑 f(f(5))=f(3)=1。为什么考虑 f(3) 而不是 f(4) 呢?这是因为,我们已知 f(5)=3,所以有 P[0:3] == P[2:5];同时已知 f(3)=1,就有 P[0:1] == P[2:3] == P[4:5]。而 P[4:5] 与当前待考虑的字符 P[5] 是紧挨着的。于是,如果我们有 P[f(3)] == P[5],那么 f(6)=f(3)+1。但是现在 P[1] == b != P[5] == c,因此 f(6)=f(3)+1 也不成立。
按照同样的分析,我们接下来应该考虑 f(f(f(5)))=f(1)=0。但显然,P[0] == a != P[5] == c,因此 f(6)=f(1)+1 也不成立;于是只能是 f(6)=0 了。
也就是说,对于已经求得前 k 项部分匹配的模式串 P 来说,起第 k+1 项的部分匹配函数的值可以这样计算:
1
2
3
4
5
6
p_table = [-1, 0, ...]
ptr = k
while ptr > 0 and pattern[k] != pattern[res[ptr]]:
    ptr = p_table[ptr]
else:
    p_table.append(p_table[ptr] + 1)
这样一来,我们就能快速地计算任意的模式串 P 的部分匹配表了。

KMP 算法的实现示例

经过上面的分析,我们很自然地就能得到 KMP 算法(以下是一个用 Python 的实现)。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
def getPartialTable(pattern):
    if not pattern:
        return None
    lp = len(pattern)
    res = [-1, 0]
    if lp > 1:
        for curr in xrange(1, lp):
            ptr = curr
            while ptr > 0 and pattern[curr] != pattern[res[ptr]]:
                ptr = res[ptr]
            else:
                res.append(res[ptr] + 1)
    return res

def matchPatternKMP(string, pattern):
    if not string or not pattern:
        return None
    p_table = getPartialTable(pattern)
    start, matched = 0, 0
    ls, lp  = len(string), len(pattern)
    stop    = ls - lp + 1
    res     = list()
    while True:
        while matched == lp or string[start + matched] != pattern[matched]:
            if matched == lp:
                res.append(start)
            start   += matched - p_table[matched]
            matched  = max(0, p_table[matched])
            if not start < stop:
                return res
        else:
            matched += 1

if __name__ == '__main__':
    string  = 'abababaababacbababacb'
    pattern = 'aaa'
    print 'string:\t\t%s\npattern:\t%s' % (string, pattern)
    print matchPatternKMP(string, pattern)

复杂度分析

好了,现在我们知道为什么 KMP 算法很快,也有了具体的实现。但是,它到底有多快呢?换句话说,它的时间复杂度是怎样的呢?
我们先来看算法的主体部分:
1
2
3
4
5
6
7
8
9
10
while True:
    while matched == lp or string[start + matched] != pattern[matched]:
        if matched == lp:
            res.append(start)
        start   += matched - p_table[matched]
        matched  = max(0, p_table[matched])
        if not start < stop:
            return res
    else:
        matched += 1
首先注意到,在 while 循环内部,算法执行的操作数目是固定的;同时,每次循环失败,都可能执行最多 m1 matched += 1。因此,整个算法的总体复杂度,就取决于 while 循环会被执行多少次。而要确定循环执行的次数,就要观察循环变量的初始值、中间变化和终止条件。
无疑,循环的终止条件与 start 有关:它从 0 开始,每次进入循环体都会自增,直到 start < stop 的条件被破坏。因此,整个循环最多被执行 stop 次;整个算法最多有 (nm)m 次操作。看起来,这是一个复杂度为 O(nm) 的算法。然而这是一个足够严格的渐进界限吗?答案是否定的,我们需要使用摊还分析来处理这个算法。
所谓摊还分析,就是抓住某一个变量(或者函数)的性质和行为,对零散、杂乱或不规则的执行进行累计,得到比一般方法更严格的上界。在这里,我们观察 matched 变量。它具有这样的性质:
  • 0 <= matched <= m
  • 只在第 10 行增加,每次增加 1;
  • 只在第 6 行有可能减少。
考虑到循环的终止条件,第 10 行最多被执行 stop 次;也就是 matched 最多自增 stop 次。考虑到 matched 必须保证非负,并且每次执行到第 6 行 matched 都会至少减小 1,所以第 6 行也最多被执行 stop 次。这也就是说,整个部分最多有 2stop 次操作。因此,它的时间复杂度不超过 O(n)
同样的,我们可以用摊还分析的方法,分析部分匹配表的算法。
1
2
3
4
5
6
for curr in xrange(1, lp):
    ptr = curr
    while ptr > 0 and pattern[curr] != pattern[res[ptr]]:
        ptr = res[ptr]
    else:
        res.append(res[ptr] + 1)
在这里,我们观察 res 这个部分匹配表;它具有这样的性质:
  • 0<= res[ptr] <= lp
  • res[res[ptr]] < res[ptr],只在第 4 行出现 res[ptr] 当前值减小的情况;
  • res[ptr] <= res[ptr - 1] + 1,只在第 6 行有可能成立等号。
很眼熟,对吗?这个分析过程和 KMP 算法的主体几乎一模一样。事实上,求得部分匹配表的过程,就是拿模式串自己匹配自己的过程;无怪乎它和算法主体很相似了。同样,考虑到循环的终止条件,求得部分匹配表的过程,复杂度不超过 O(m)
因此,考虑到总是有 m<n,整个 KMP 算法的时间复杂度不超过 O(n)

Comments

Popular posts from this blog

OWASP Top 10 Threats and Mitigations Exam - Single Select

Last updated 4 Aug 11 Course Title: OWASP Top 10 Threats and Mitigation Exam Questions - Single Select 1) Which of the following consequences is most likely to occur due to an injection attack? Spoofing Cross-site request forgery Denial of service   Correct Insecure direct object references 2) Your application is created using a language that does not support a clear distinction between code and data. Which vulnerability is most likely to occur in your application? Injection   Correct Insecure direct object references Failure to restrict URL access Insufficient transport layer protection 3) Which of the following scenarios is most likely to cause an injection attack? Unvalidated input is embedded in an instruction stream.   Correct Unvalidated input can be distinguished from valid instructions. A Web application does not validate a client’s access to a resource. A Web action performs an operation on behalf of the user without checking a shared sec

CKA Simulator Kubernetes 1.22

  https://killer.sh Pre Setup Once you've gained access to your terminal it might be wise to spend ~1 minute to setup your environment. You could set these: alias k = kubectl                         # will already be pre-configured export do = "--dry-run=client -o yaml"     # k get pod x $do export now = "--force --grace-period 0"   # k delete pod x $now Vim To make vim use 2 spaces for a tab edit ~/.vimrc to contain: set tabstop=2 set expandtab set shiftwidth=2 More setup suggestions are in the tips section .     Question 1 | Contexts Task weight: 1%   You have access to multiple clusters from your main terminal through kubectl contexts. Write all those context names into /opt/course/1/contexts . Next write a command to display the current context into /opt/course/1/context_default_kubectl.sh , the command should use kubectl . Finally write a second command doing the same thing into /opt/course/1/context_default_no_kubectl.sh , but without the use of k

标 题: 关于Daniel Guo 律师

发信人: q123452017 (水天一色), 信区: I140 标  题: 关于Daniel Guo 律师 关键字: Daniel Guo 发信站: BBS 未名空间站 (Thu Apr 26 02:11:35 2018, 美东) 这些是lz根据亲身经历在 Immigration版上发的帖以及一些关于Daniel Guo 律师的回 帖,希望大家不要被一些马甲帖广告帖所骗,慎重考虑选择律师。 WG 和Guo两家律师对比 1. fully refund的合约上的区别 wegreened家是case不过只要第二次没有file就可以fully refund。郭家是要两次case 没过才给refund,而且只要第二次pl draft好律师就可以不退任何律师费。 2. 回信速度 wegreened家一般24小时内回信。郭律师是在可以快速回复的时候才回复很快,对于需 要时间回复或者是不愿意给出确切答复的时候就回复的比较慢。 比如:lz问过郭律师他们律所在nsc区域最近eb1a的通过率,大家也知道nsc现在杀手如 云,但是郭律师过了两天只回复说让秘书update最近的case然后去网页上查,但是上面 并没有写明tsc还是nsc。 lz还问过郭律师关于准备ps (他要求的文件)的一些问题,模版上有的东西不是很清 楚,但是他一般就是把模版上的东西再copy一遍发过来。 3. 材料区别 (推荐信) 因为我只收到郭律师写的推荐信,所以可以比下两家推荐信 wegreened家推荐信写的比较长,而且每封推荐信会用不同的语气和风格,会包含lz写 的research summary里面的某个方面 郭家四封推荐信都是一个格式,一种语气,连地址,信的称呼都是一样的,怎么看四封 推荐信都是同一个人写出来的。套路基本都是第一段目的,第二段介绍推荐人,第三段 某篇或几篇文章的abstract,最后结论 4. 前期材料准备 wegreened家要按照他们的模版准备一个十几页的research summary。 郭律师在签约之前说的是只需要准备五页左右的summary,但是在lz签完约收到推荐信 ,郭律师又发来一个很长的ps要lz自己填,而且和pl的格式基本差不多。 总结下来,申请自己上心最重要。但是如果选律师,lz更倾向于wegreened,