算法训练 二进制数数
程序员文章站
2022-07-15 09:57:35
...
/**
资源限制
时间限制:1.0s 内存限制:256.0MB
问题描述
给定L,R。统计[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
如5的二进制为101,包含2个“1”。
输入格式
第一行包含2个数L,R
输出格式
一个数S,表示[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
样例输入
2 3
样例输出
3
数据规模和约定
L<=R<=100000;
*/
/**
这种写法有缺陷:
1.输入1到9亿的运算时间要15074ms;更大的数要的时间更久
2.不能计算负数。
思路逻辑:
1.因为要算的是区间,做一个循环得到区间里的数,然后计算这些数的二进制1的个数,最后把每个数的二进制1的个数加起来输出
2.判断一个数的二进制中1的个数采用位运算(x&(x-1)是最优的,每次将给定的数的最右边的1变位0):采用给定的数与给定的数-1逻辑与操作,把给定的数的最后边的1变成0,操作一次,count自增一次,知道给定的数的1全部变为0,退出循环。
有兴趣的可以试试改下代码,或者试下其他思路;
*/
import java.util.Scanner;
public class Test {
public static void main(String[] args) {
long start = System.currentTimeMillis();//获取开始时间
Scanner s=new Scanner(System.in);
System.out.println("请输入L值:");
int l=s.nextInt();
System.out.println("请输入R值:");
int r=s.nextInt();
int sum=0;
for(int i=l;i<=r;i++) {
int c=binaryMethod(i);
sum+=c;
}
System.out.println(sum);
long end = System.currentTimeMillis();//获取结束时间
System.out.println("程序运行时间:"+(end-start)+"ms");
}
static int binaryMethod(int i){
int count=0;
while(i!=0){
i=i&(i-1);
count++;
}
return count;
}
}