试题 算法训练 二进制数数
程序员文章站
2022-07-15 09:50:23
...
思路:先将十进制数转成二进制,然后计算区间内每个二进制数的1的个数相加即可。
问题描述
给定L,R。统计[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
如5的二进制为101,包含2个“1”。
输入格式
第一行包含2个数L,R
输出格式
一个数S,表示[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
样例输入
2 3
样例输出
3
数据规模和约定
L<=R<=100000;
inlist = list(map(int,input().split()))
start = inlist[0]
end = inlist[1]
s = 0
for i in range(start,end+1):
# [L,R]区间内的所有数在二进制下包含的“1”的个数之和。
x = str(bin(i)[2:])
s += x.count('1')
print(s)
上一篇: java : 算法训练 二进制数数