欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

python删除本地夹里重复文件的方法

程序员文章站 2023-01-05 14:49:05
上次的博文主要说了从网上下载图片,于是我把整个笑话网站的图片都拔下来了,但是在拔取的图片中有很多重复的,比如说页面的其他图片、重复发布的图片等等。所以我又找了python的...

上次的博文主要说了从网上下载图片,于是我把整个笑话网站的图片都拔下来了,但是在拔取的图片中有很多重复的,比如说页面的其他图片、重复发布的图片等等。所以我又找了python的一些方法,写了一个脚本可以删除指定文件夹里重复的图片。

一、方法和思路

1.比对文件是否相同的方法:hashlib库里提供了获取文件md5值的方法,所以我们可以通过md5值来判定是否图片相同

2.对文件的操作:os库里有对文件的操作方法,比如:os.remove()可以删除指定的文件, os.listdir()可以通过指定文件夹路径获取文件夹里所有文件的文件名

思路:通过获取指定文件夹的所有文件名,然后匹配为一个绝对路径的列表,循环的比对每个文件的md5值,如果md5值重复,则删除这个文件

二、代码实现

import os 
import hashlib 
import logging 
import sys 
 
def logger(): 
 """ 获取logger""" 
 logger = logging.getlogger() 
 if not logger.handlers: 
  # 指定logger输出格式 
  formatter = logging.formatter('%(asctime)s %(levelname)-8s: %(message)s') 
  # 文件日志 
  file_handler = logging.filehandler("test.log") 
  file_handler.setformatter(formatter) # 可以通过setformatter指定输出格式 
  # 控制台日志 
  console_handler = logging.streamhandler(sys.stdout) 
  console_handler.formatter = formatter # 也可以直接给formatter赋值 
  # 为logger添加的日志处理器 
  logger.addhandler(file_handler) 
  logger.addhandler(console_handler) 
  # 指定日志的最低输出级别,默认为warn级别 
  logger.setlevel(logging.info) 
 return logger 
 
def get_md5(filename): 
 m = hashlib.md5() 
 mfile = open(filename, "rb") 
 m.update(mfile.read()) 
 mfile.close() 
 md5_value = m.hexdigest() 
 return md5_value 
 
def get_urllist(): 
 #替换指定的文件夹路径即可 
 base = ("f:\\pythonfile\\煎蛋网\\无聊图\\jpg\\") 
 list = os.listdir(base) 
 urllist=[] 
 for i in list: 
  url = base + i 
  urllist.append(url) 
 return urllist 
 
if __name__ == '__main__': 
 log = logger() 
 md5list =[] 
 urllist =get_urllist() 
 for a in urllist: 
  md5 =get_md5(a) 
  if (md5 in md5list): 
   os.remove(a) 
   print("重复:%s"%a) 
   log.info("重复:%s"%a) 
  else: 
   md5list.append(md5) 
   # print(md5list) 
   print("一共%s张照片"%len(md5list)) 

然后我们可以通过日志来查看到底哪些文件是重复的,不过对于一些超大文件的话,md5值的获取会有一些变化,不过处理一般的小文件都可以的,只需要替换我的路径,就可以在你电脑上运行啦。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。