算法的时间复杂度与空间复杂度

本文最后更新于:2 年前

算法的时间复杂度

度量一个程序(算法)执行时间的两种方法:

  • 事后统计的方法

    这种方法可行,但存在两个问题:

    • 一是要想对设计的算法的运行性能进行评测,需要实际运行该程序;
    • 二是所得时间的统计量依赖于计算机的硬件、软件等环境因素, 这种方式,要在同一台计算机的相同状态下运行,才能比较那个算法速度更快
  • 事前估算的方法

    通过分析某个算法的时间复杂度来判断哪个算法更优。

时间频度

一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。

比如计算1-100所有数字之和, 我们设计两种算法:

两种算法的时间频度

  • 忽略常数项

    忽略常数项

    结论:

    1. 2n+20 和 2n 随着 n 变大,执行曲线无限接近, 20 可以忽略。

    2. 3n+10 和 3n 随着 n 变大,执行曲线无限接近, 10 可以忽略。

  • 忽略低次项

    忽略低次项

    结论:

    1. 2n^2+3n+10 和 2n^2 随着 n 变大, 执行曲线无限接近, 可以忽略 3n+10。

    2. n^2+5n+20 和 n^2 随着 n 变大,执行曲线无限接近, 可以忽略 5n+20。

  • 忽略系数

    忽略系数

    结论:

    1. 随着 n 值变大,5n^2+7n 和 3n^2 + 2n ,执行曲线重合, 说明这种情况下, 5 和 3 可以忽略。

    2. 而 n^3+5n 和 6n^3+4n ,执行曲线分离,说明多少次方才是关键。

时间复杂度

一般情况下,算法中的基本操作语句的重复执行次数是问题规模 n 的某个函数,用 T(n) 表示,若有某个辅助函数 f(n) ,使得当 n 趋近于无穷大时,T(n) / f(n) 的极限值为不等于零的常数,则称 f(n) 是 T(n) 的同数量级函数。记作 T(n)=O( f(n) ),称 O( f(n) ) 为算法的渐进时间复杂度,简称时间复杂度。

T(n) 不同,但时间复杂度可能相同。 如:T(n)=n²+7n+6 与 T(n)=3n²+2n+2 它们的 T(n) 不同,但时间复杂度相同,都为 O(n²)。

计算时间复杂度的方法:

  1. 用常数 1 代替运行时间中的所有加法常数 T(n)=n²+7n+6 ==> T(n)=n²+7n+1;

  2. 修改后的运行次数函数中,只保留最高阶项 T(n)=n²+7n+1 ==> T(n) = n²;

  3. 去除最高阶项的系数 T(n) = n² ==> T(n) = n² ==> O(n²) 。

常见时间复杂度

常见时间复杂度

说明

常见的算法时间复杂度由小到大依次为:Ο(1)Ο(log2n)Ο(n)Ο(nlog2n)Ο(n2)Ο(n3)Ο(nk)Ο(2n) ,随着问题规模 n 的不断增大,上述时间复杂度不断增大,算法的执行效率越低。

从图中可见,我们应该尽可能避免使用指数阶的算法 。

  • 常数阶 O(1)

    无论代码执行了多少行,只要是没有循环等复杂结构,那这个代码的时间复杂度就都是 O(1)

    1
    2
    3
    4
    5
    int i = 1;
    int j = 2;
    ++i;
    j++;
    int m = i + j;

    上述代码在执行的时候,它消耗的时候并不随着某个变量的增长而增长,那么无论这类代码有多长,即使有几万几十万行,都可以用 O(1) 来表示它的时间复杂度。

  • 对数阶 O(log2n)

    1
    2
    3
    4
    int i = 1;
    while(i < n){
    i = i * 2;
    }

    说明:在 while 循环里面,每次都将 i 乘以 2,乘完之后,i 距离 n 就越来越近了。假设循环 x 次之后,i 就大于 2 了,此时这个循环就退出了,也就是说 2 的 x 次方等于 n,那么 x = log2n 也就是说当循环 log2n 次以后,这个代码就结束了。因此这个代码的时间复杂度为:O(log2n) 。 O(log2n) 的这个 2 时间上是根据代码变化的,i = i * 3 ,则是 O(log3n) 。

  • 线性阶 O(n)

    1
    2
    3
    4
    for(i=1; i<=n; ++i){
    j = i;
    j++
    }

    说明:这段代码,for 循环里面的代码会执行 n 遍,因此它消耗的时间是随着 n 的变化而变化的,因此这类代码都可以用 O(n) 来表示它的时间复杂度。

  • 线性对数阶 O(nlogN)

    1
    2
    3
    4
    5
    6
    for(m=1; m<n; m++){
    i = 1;
    while(i < n){
    i = i * 2;
    }
    }

    说明:线性对数阶 O(nlogN) 其实非常容易理解,将时间复杂度为O(logn)的代码循环N遍的话,那么它的时间复杂度就是 n * O(logN),也就是了O(nlogN)

  • 平方阶 O(n²)

    1
    2
    3
    4
    5
    6
    for(x=1; i<=n; x++){
    for(i=1; i<=n; i++){
    j=i;
    j++;
    }
    }

    说明:平方阶 O(n²) 就更容易理解了,如果把 O(n) 的代码再嵌套循环一遍,它的时间复杂度就是 O(n²),这段代码其实就是嵌套了 2 层 n 循环,它的时间复杂度就是 O(n*n),即 O(n²) 。如果将其中一层循环的 n 改成 m,那它的时间复杂度就变成了 O(m*n)

  • 立方阶 O(n³) 、K次方阶 O (n^k)

    说明:参考上面的 O(n²) 去理解就好了,O(n³) 相当于三层 n 循环,其它的类似。

平均时间复杂度与最坏时间复杂度

  1. 平均时间复杂度是指所有可能的输入实例均以等概率出现的情况下,该算法的运行时间。

  2. 最坏情况下的时间复杂度称最坏时间复杂度。一般讨论的时间复杂度均是最坏情况下的时间复杂度。 这样做的原因是:最坏情况下的时间复杂度是算法在任何输入实例上运行时间的界限,这就保证了算法的运行时间不会比最坏情况更长。

  3. 平均时间复杂度和最坏时间复杂度是否一致,和算法有关,如图:

    平均时间复杂度和最坏时间复杂度的关系

算法的空间复杂度

  1. 类似于时间复杂度的讨论,一个算法的空间复杂度(Space Complexity)定义为该算法所耗费的存储空间,它也是问题规模 n 的函数。

  2. 空间复杂度(Space Complexity)是对一个算法在运行过程中临时占用存储空间大小的量度。有的算法需要占用的临时工作单元数与解决问题的规模 n 有关,它随着 n 的增大而增大,当 n 较大时,将占用较多的存储单元,例如快速排序和归并排序算法就属于这种情况。

  3. 在做算法分析时,主要讨论的是时间复杂度。从用户使用体验上看,更看重的程序执行的速度。一些缓存产品(redis, memcache)和算法(基数排序)本质就是用空间换时间。