算法:计算十进制数字在二进制表示1的个数
题目一
计算十进制数字在二进制表示 1 的个数
举个例子:
- 十进制数字为 1 时,它的二进制表示是 001,二进制表示 1 的个数为 1;
- 十进制数字为 2 时,它的二进制表示是 010,二进制表示 1 的个数为 1;
- 十进制数字为 3 时,它的二进制表示是 011,二进制表示 1 的个数为 2;
- 十进制数字为 4 时,它的二进制表示是 100,二进制表示 1 的个数为 1;
- 十进制数字为 5 时,它的二进制表示是 101,二进制表示 1 的个数为 2;
- 十进制数字为 6 时,它的二进制表示是 110,二进制表示 1 的个数为 2;
- 十进制数字为 7 时,它的二进制表示是 111,二进制表示 1 的个数为 3;
时间复杂度 O(logn) 的解法
对于这个题目比较容易想到的是如下代码:
int count = 0;
while(n != 0)
{
if(n % 2 == 1)
{
count++;
}
n = n >> 1;
}
上述代码主要做了两个步骤:
-
n % 2
表示对数字求模运算,也就是计算二进制的末尾是 1 还是 0,如果二进制的末尾是 1 ,则 count 自增,count 表示的是二进制表示 1 的个数; -
n = n >> 1
表示把二进制往右移走一位,比如十进制数字 7 的二进制表示是 111 ,那么通过右移一位后,则变成 011。
这个解决方式虽然能计算出二进制表示 1 的个数,但是我们可以发现这个解法的时间复杂度是 O(logn),比如当 n 为 7 时,它的二进制表示是 111,那么它将会循环 3 次,也就是非常接近 log 以 2 为底 7 的对数的值。
题目二
程序读入一个整数 n,假设 n 不会大于 1000,请输出 1 到 n 每个数字的二进制表示 1 的个数。
时间复杂度 O(nlogn) 的解法
可能有的小伙伴说,这题目二还不简单?直接把上面的解法,增加个 for 循环不就得了。
int main()
{
int i, j, n, count;
scanf("%d", &n);
for(i = 1; i <= n; i++)
{
j = i;
count = 0;
while(j != 0)
{
if(j % 2 == 1)
{
count++;
}
j = j >> 1;
}
printf("number:%d, count:%d\n", i, count);
}
return 0;
}
假设输入 7,则输出结果:
number:1, count:1
number:2, count:1
number:3, count:2
number:4, count:1
number:5, count:2
number:6, count:2
number:7, count:3
number:8, count:1
没错,用上述的解法增加个 for 循环,确实可以解决题目二的要求,这值得鼓励,但是程序的时间复杂度是时间复杂度 O(nlogn) ,运行效率不高,所以我们必须要有种精神,就是要用时间复杂度最少的方式去解决算法的问题,这样才能一次一次的进步。
时间复杂度 O(n) 的解法
请先观察下面的位运算性质:
y = x & (x - 1)
我们看到,x
和与 x -1
这两个数字做按位与运算,所以我们要以二进制的角度去思考这个问题。
比如:
- 假设
x
是 3,它的二进制是 011; - 那么
x - 1
就是 2,它的二进制是 010; -
x & (x - 1)
运算后的二进制就是 010。
那么 x & (x - 1)
实际效果等效于去掉 x
二进制表示中的最后一位 1,从而我们发现原来 y
变量与 x
变量在二进制表示中,只差一个 1。
如果我们用一个数组 f
记录相应数字二进制表示中 1 的数量,那么 f[i]
数组存放的值是 i
这个数字二进制表示中 1 的数量,从而我们可以推导得到 f[i] = f[i & (i - 1)] + 1
,也就是说 i
数字比 i & (i - 1)
数字的二进制表示中的 1 的数量要多一个,这样我们通过一步计算就得到 f[i]
的结果,也就是相应数字二进制表示中 1 的数量结果。
代码如下:
int main()
{
int n,i;
int f[1001];
f[0] = 0;
scanf("%d", &n);
for(i = 1; i <= n; i++)
{
f[i] = f[i & (i - 1)] + 1;
}
for(i = 1; i <= n; i++)
{
printf("%d ", f[i]);
}
printf("\n");
return 0;
}
这个程序的过程如下:
- 首先先读入一个整数
n
,代表要求解的范围; - 然后循环
n
次,每一次通过f[i] = f[i & (i - 1)] + 1
计算得到f[i]
的值,也就是数字的二进制表示 1 的个数; - 最后输出 1 到
n
中每个数字二进制表示中 1 的个数。
针对这个解法,程序的时间复杂度是 O(n)。
上一篇: 八位二进制转化为十进制
下一篇: 集合不安全