C语言qsort函数算法性能测试

对于算法的复杂度,一种直观感知方法是测量一定数量级数据的算法运行时间。

以C语言提供的qsort为例子,以100万数据量测试其计算时间,,可感知O(nlg(n))的时间代价:

C代码如下:

#include <stdio.h>#include <stdlib.h>#include <time.h>#define N 1000000//int (*Comp)(const void *,const void *)int compare(const void *p1, const void *p2) {return *(float*)p1 > *(float*)p2;}int main(){float x[N];srand( time(NULL) );clock_t t1 = clock();for(int j = 0; j < 10; j++) {for(long i = 0; i < N; i++)x[i] = (float)rand()/RAND_MAX;qsort(x, N, sizeof(float), compare);}for(int i = 0; i < 10; i++)printf("%f ", x[i]);printf("\n");clock_t t2 = clock();printf("浮点数排序算法用时:%f 秒\n", (double)(t2 – t1)/ CLOCKS_PER_SEC);return 0;}在笔记本上用gcc qsort_test.c编译和运行,10次100万数据随机生成和排序用时结果为:

~/tmp$ ./a.out0.000000 0.000001 0.000001 0.000002 0.000002 0.000004 0.000004 0.000005 0.000006 0.000006浮点数排序算法用时:2.236941 秒

你的选择是做或不做,但不做就永远不会有机会

C语言qsort函数算法性能测试

相关文章:

你感兴趣的文章:

标签云: