20181205Python 自动化笔试题,挑战你的知识库

本贴最后更新于 1560 天前,其中的信息可能已经时移俗易

1:获取当前目录下所有文件,然后做如下处理:

  1. 文件名去重复。
  2. 选出文件大于10m的
  3. 获取到文件的md5值,然后利用这个md5值对文件名进行重命名(其中md5代表一个文件属性)
  4. 打印出最后的符合条件的所有文件名

温馨提示:

  1. 我们是要获取所有的文件 而不是目录
  2. 去重复不是删除文件,而是对重复的文件名进行重命名
  3. 想办法获取文件的md5值
  4. 最好是函数的形式实现哦
1 操作
huahua 在 2020-08-07 21:52:58 更新了该帖
18 回帖
请输入回帖内容 ...
  • python12-wangbo

    import os,hashlib
    class get_file():
    def init(self,path):
    self.path=path
    """path 通过传入制定路径,获取路径下的所有文件名字返回一个1维列表"""
    self.file_name=[]
    for (dirpath, dirnames, filenames) in os.walk(self.path):
    if filenames:
    self.file_name.append(filenames)
    self.old_file_name=[]
    for i in self.file_name:
    for j in i:
    self.old_file_name.append(j)
    self.old_file_name
    print("old_file ",self.old_file_name)

    def count_file(self,filename):
        count=0
        for  i  in self.old_file_name:
            if filename ==i:
                count=count+1
        return count
    def getBigFileMD5(self,filepath):
        """获取文件的md5值,防止因为文件过大而发生读取错误,采用分段读取"""
        if os.path.isfile(filepath):
            file_md5 = hashlib.md5()
            maxbuf = 8192          #设置每次读取的字节数
            f = open(filepath,'rb')
            while True:
                buf = f.read(maxbuf)  
                if not buf:
                    break          #每次读取设置的字节数大小,直到读完后跳出循环    
                file_md5.update(buf)   #用数据中的字节更新哈希对象,重复调用相当于链接起来
            f.close()      
            hash = file_md5.hexdigest()
            return str(hash).upper()
        return None 
        
    def unique_absfile(self):
        """判断文件名在所有文件的列表中出现的次数,大于1则更改文件名字为md5值,并且保留后缀名字,
        方法返回处理后的文件名字(绝对路径)的列表"""
        pathname=[]
        
        for (dirpath, dirnames, filenames) in os.walk(self.path):   
             
            for filename in filenames: 
                if self.count_file(filename)>1: #判断文件名字是否重复
                    file_first_name=filename.split(".")[0]
                    file_last_name=filename.split(".")[1] 
                    path_name=os.path.join(dirpath, filename)  #获取重复文件名字的绝对路径
                    
                    new_filename=self.getBigFileMD5(path_name)+"."+file_last_name#保证改名后,文件的后缀名字不变
                    new_pathname = os.path.join(dirpath, new_filename)
                    
                    new_pathname=os.rename(path_name,new_pathname)
                    pathname=pathname+[new_pathname ]
                else:
                    pathname=pathname+[os.path.join(dirpath, filename)]
        return pathname 
      
    
    
                
    
    def file_size(self,condition=10):
        """调用内部方法self.unique_absfile(),获得去重后的文件名字列表(文件名是绝对路径)"""
        """获取文件大小,以M为单位"""
        all_file=self.unique_absfile()
        file_name=[]
        for i in   all_file:
            size = float((os.path.getsize(i)/1024))
            if size>condition:
    
                if "\\" in i:
                   file_name.append(i.split("\\")[-1]) 
                else:
                    file_name.append(i.split("/")[-1]) 
        return file_name 
    
  • 其他回帖
  • zjj
    
    # -*- coding:utf-8 -*-
    
    import os
    import hashlib
    
    FILE_LIST = [] #所有文件列表
    
    #获取目录下所有文件
    def  get_file_list(dir_path):
        global FILE_LIST
        dir_list = {}
        if not os.path.isdir(dir_path):
            print('目录不存在')
        else:
            dir_list = os.listdir(dir_path)
            for file in dir_list:
                file_path = dir_path + '\\' +file
                if os.path.isdir(file_path):
                    get_file_list(file_path) #目录包含目录需读得里面的文件
                else:
                    FILE_LIST.append(file_path)
        #print(FILE_LIST)
    
    #获取文件的md5的值
    def get_file_md5(file_path):
        def read_chunks(fh):
            fh.seek(0)
            chunks = fh.read(8096)  #文件过大一块块读
            while chunks:
                yield chunks
                chunks = fh.read(8096)
            else: #最后将游标放回到文件头
                fh.seek(0)
    
        myhash = hashlib.md5()
        with open(file_path,'rb') as fh:
            for chunk in read_chunks(fh):
                myhash.update(chunk)
    
        return myhash.hexdigest()
    
    
    #文件大小过滤及重命名
    def file_operator(dir_path,size,file_size_unit):
        count = 0
        file_dict = {}
        get_file_list(dir_path) #获取目录下所有文件
    
        for file in FILE_LIST:
            file_size = os.path.getsize(file)
            if file_size_unit == 'Byte':
                file_size = file_size
            elif file_size_unit == 'KB':
                file_size = file_size / 1024
            elif file_size_unit == 'M':
                file_size = file_size / 1024 / 1024
            elif file_size_unit == 'G':
                file_size = file_size / 1024 / 1024 / 1024
            else:
                print('文件单位默认为M处理')
                ile_size = file_size / 1024 / 1024
    
            file_size = round(file_size,2)
            file_md5 = get_file_md5(file)   #获取文件的md5码
            file_path = os.path.split(file)
            file_full_name = file_path[1]  #获取文件的名称,不包含目录
            count += 1
            file_type = file_full_name[file_full_name.index('.'):] #获取文件的类型
            #新目录名 = 目录+文件+文件md5码+记数+文件类型
            new_name = file_path[0] + '\\' + str(file_md5) + '_' + str(count) + file_type
            os.rename(file,new_name)
            if(file_size > size): #过滤文件大小不足的
                file_dict[new_name] = str(file_size) + file_size_unit
    
        print('大小超过{0}{1}的文件列表为:\n{2}'.format(size,file_size_unit,file_dict))
    
    if __name__ == '__main__':
        file_operator(r'G:\test',10,'M')
    
  • tyq
    import os,hashlib
    md5_list=[]
    class GetFile:
        def get_md5(self,file):
            if os.path.isfile(file):
                f = open(file,'rb')
                md5_obj = hashlib.md5()#获取一个md5加密算法对象
                md5_obj.update(f.read())#读取文件,制定需要加密的字符串
                hash_code = md5_obj.hexdigest()#获取加密后的16进制字符串
                f.close()
                md5=str(hash_code).lower()#转为小写
                return md5
        def alter_file(self,directory):
            list_dir=os.listdir(directory)#获取指定目录下的文件
            for item in list_dir:#遍历目录下的文件
                files_md5=self.get_md5(item)
                md5_list.append(files_md5)
                md5_set=set(md5_list)
                for i in md5_set:
                #判断md5个数是否大于1,做去重
                  if md5_list.count(i)>1 and os.path.getsize(item)>10*pow(1024,2):#判断文件的大小是否大于10M
                    file=os.path.splitext(item)#将文件拆成文件名和后缀
                    file_new=files_md5+file[1]#命名一个新文件
                    try:
                        os.rename(item,file_new)#文件替换
                        print("符合的文件有{0},修改为{1}".format(item,file_new))
                    except FileExistsError as e:
                        print(e)
                    break
    if __name__ == '__main__':
        #指定一个目录
        path="F:\Python\python"
        GetFile().alter_file(path)
    
  • python12-wangbo

    import os,hashlib
    class get_file():
    def init(self,path):
    self.path=path
    """path 通过传入制定路径,获取路径下的所有文件名字返回一个1维列表"""
    self.file_name=[]
    for (dirpath, dirnames, filenames) in os.walk(self.path):
    if filenames:
    self.file_name.append(filenames)
    self.old_file_name=[]
    for i in self.file_name:
    for j in i:
    self.old_file_name.append(j)
    self.old_file_name
    print("old_file ",self.old_file_name)

    def count_file(self,filename):
        count=0
        for  i  in self.old_file_name:
            if filename ==i:
                count=count+1
        return count
    def getBigFileMD5(self,filepath):
        """获取文件的md5值,防止因为文件过大而发生读取错误,采用分段读取"""
        if os.path.isfile(filepath):
            file_md5 = hashlib.md5()
            maxbuf = 8192          #设置每次读取的字节数
            f = open(filepath,'rb')
            while True:
                buf = f.read(maxbuf)  
                if not buf:
                    break          #每次读取设置的字节数大小,直到读完后跳出循环    
                file_md5.update(buf)   #用数据中的字节更新哈希对象,重复调用相当于链接起来
            f.close()      
            hash = file_md5.hexdigest()
            return str(hash).upper()
        return None 
        
    def unique_absfile(self):
        """判断文件名在所有文件的列表中出现的次数,大于1则更改文件名字为md5值,并且保留后缀名字,
        方法返回处理后的文件名字(绝对路径)的列表"""
        pathname=[]
    
        for (dirpath, dirnames, filenames) in os.walk(self.path):   
             
            for filename in filenames: 
                if self.count_file(filename)>1: #判断文件名字是否重复
                    file_first_name=filename.split(".")[0]
                    file_last_name=filename.split(".")[1] 
                    path_name=os.path.join(dirpath, filename)  #获取重复文件名字的绝对路径
                    
                    new_filename=self.getBigFileMD5(path_name)+"."+file_last_name#保证改名后,文件的后缀名字不变
                    new_pathname = os.path.join(dirpath, new_filename)
                    
                    new_pathname=os.rename(path_name,new_pathname)
                    pathname=pathname+[new_pathname ]
                else:
                    pathname=pathname+[os.path.join(dirpath, filename)]
        return pathname 
    def file_size(self,condition=10):
        """调用内部方法self.unique_absfile(),获得去重后的文件名字列表(文件名是绝对路径)"""
        """获取文件大小,以M为单位"""
        all_file=self.unique_absfile()
        file_name=[]
        for i in   all_file:
            size = float((os.path.getsize(i)/1024))
            if size>condition:
    
                if "\\" in i:
                   file_name.append(i.split("\\")[-1]) 
                else:
                    file_name.append(i.split("/")[-1]) 
        return file_name 
    
  • 查看更多回帖