博客
关于我
图像加灰条避免缩放失真
阅读量:592 次
发布时间:2019-03-12

本文共 1716 字,大约阅读时间需要 5 分钟。

图像加灰条避免缩放失真

在深度学习的训练中,大多需要使用正方形的图片,但是我们平常拍摄的图像大多都是长方形的,所以在缩放图片时,要给图片加灰条,代码很简单:

def letterbox_image(image, size):
iw, ih = image.size
w, h = size
scale = min(w/iw, h/ih)
nw = int(iwscale)
nh = int(ih
scale)

image = image.resize((nw,nh), Image.BICUBIC)new_image = Image.new('RGB', size, (128,128,128))new_image.paste(image, ((w-nw)//2, (h-nh)//2))return new_image

这部分代码是用来加灰条的,iw和ih是原图的行列数,w和h是需要生成的图像的行列数,scale得到的是新图与原图的宽高比,简单想一下,宽高比越小的,变化的范围就越大,那么反之,就要给另外一边补灰条。所以先得到scale这个较小的宽高比,然后对图片进行缩放,new_image是一张灰色的新图,然后将缩放好的图像粘贴到灰色图像上,覆盖掉一部分,那么剩下的部分就是灰条了。

下面附完整的批量加灰条代码:

import osimport numpy as npimport cv2from PIL import Imagedef letterbox_image(image, size):    iw, ih = image.size    w, h = size    scale = min(w/iw, h/ih)    nw = int(iw*scale)    nh = int(ih*scale)    image = image.resize((nw,nh), Image.BICUBIC)    new_image = Image.new('RGB', size, (128,128,128))    new_image.paste(image, ((w-nw)//2, (h-nh)//2))    return new_imagedef search_files(directory):    directory = os.path.normpath(directory)    objects = {}    for curdir, subdirs, files in os.walk(directory):        for file in files:            if file.endswith('.jpg'):                label = curdir.split(os.path.sep)[-1]                if label not in objects:                    objects[label] = []                path = os.path.join(curdir, file)                objects[label].append(path)    return objectsif __name__ == "__main__":    train_samples = search_files('E:\\python\\learning\\tree_learn\\crossFork')    print(train_samples)    for label, filenames in train_samples.items():        for filename in filenames:            img = Image.open(filename)            new_img = letterbox_image(img, (224, 224))            new_img.save(filename)

转载地址:http://hlhtz.baihongyu.com/

你可能感兴趣的文章
Nginx配置参数中文说明
查看>>
nginx配置域名和ip同时访问、开放多端口
查看>>
Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
查看>>
Nginx配置如何一键生成
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
Nginx配置文件nginx.conf中文详解(总结)
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>