您当前的位置:中国科学网>资讯>正文

你穿衣品味还不如AI这有一款时尚着装网络模型

放大字体  缩小字体 时间:2019-09-22 18:15:00 作者:责任编辑。陈微竹0371

机器之心报导

参加:一鸣、李亚洲

有一件衣服的时分,怎样的小改动能够提高其全体的时髦性?近来 UT 奥斯汀、康奈尔大学、乔治亚理工和 Facebook AI 研讨中心的研讨者提出了一种名为 Fashon ++ 的模型,用于给一件衣服进行改善,以便能够最好地提高其时髦性。

AI 在时髦范畴的应用在近几年逐渐增加,许多研讨者运用盛行的生成模型架构进行人物换衣和自动上妆。一些研讨者近来将目光投向了时装设计范畴。当有一件裁缝时,人们更期望的是对其进行细小的改动,以此提高时装全体的时髦作用,那么 AI 是否可行呢?这篇论文阐明,AI 也是能够协助人们进行时装设计的。

论文地址:https://arxiv.org/abs/1904.09261

AI 一键改衣

在这篇论文中,研讨者提出了一个 AI 体系,名为 Fashion++。这是一个运用深度图画生成模型的神经网络,用于辨认衣服,并提出对衣服的修正主张。例如,模型会主张对衣服进行移除、增加或移动方位。它也能够对衣服的一部分进行修正,如塞好衬衣或卷起袖子。之前的一些研讨中,模型会直接提出整个时装的修正主张,或许供给一个和现有衣服类似的计划。而 Fashion++则会在现有的服装基础上进行修正,使其更有型。

AI 具领会这样为运用者提出时装修正主张。如图所示,左图中,AI 会主张移除去全体时装中的披肩。在中图中,AI 主张将女士衬衣换成无袖的。在右图中,则主张将衣服挽起一点。

模型

Fashion++ 能够为详细的时装调配提出主张,这样的模型是依据深度生成网络的。

如图为模型的全体架构。研讨人员首要从原料和形状编码器中取得隐式特征。然后运用修正模块 F++进行核算。在一次修正之后,形状生成器首要会解码更新过的形状特征,将其还原为一个 2D 切割隐瞒,然后研讨者运用「区域性质」播送更新的原料特征,将其融合到一个 2D 特征映射中。这一特征映射和更新的切割隐瞒会经过一个原料生成器,用于生成出最终更新过的全体时装。

练习进程

在练习之前,体系首要运用了一个分类器,在时装图画数据上学习「有时髦感」的图画。「有时髦感」的图画作为练习用的参阅数据,然后研讨者从网络中获取了许多的服装信息,将这些图画一步步修正,将其间的时装部分替换为最不类似的其他部分。这样一来,就能够生成许多负样本,用于协助 AI 学习什么是不时髦的图画。

练习好分类器后,该体系会逐渐更新着装,以使其更时髦。然后,图画生成神经网络会对调整后的新外观进行烘托,即运用变分自编码器生成概括,运用条件生成对立网络(cGAN)生成色彩和图画。此外,该生成器学习到的潜在编码还被用于辨认其库存中的哪些服装最能完成该着装方法。

数据集

在此研讨中,作者运用 Chictopia10 数据集进行试验。此外,作者们运用了 15930 张图画来练习生成器,12744 张图画练习时髦分类器。

该数据集用于供给时髦图画,而剩下的「不时髦」图画,依据前文所述,是经过网络图画+逐渐替换的方法修正的。详细而言,研讨者首要运用 Chictopia 全身时装图画(一个正样本),从中选取一部分进行修正,运用一个不同的时装替换掉这个部分。为了提高「不时髦」图片的挑选作用,研讨者挑选的是新时装和被替换部分之间欧几里得间隔(用 CNN 提取出的隐向量)最远的那种。

构建练习集。左图为正样本,研讨者改写了其间的一些部分,运用欧几里得间隔最远的对应时装进行替换,使其变得丑陋,成为负样本(右图)。

作用

下图显现了 Fashion ++引荐服装的纤细改变。

试验标明,该体系的主张使图画更挨近实在的样本,并且人类评价者发现 Fashion ++的主张不只时髦并且易于施行。

研讨的含义

Facebook 博客标明,这项作业展现了 AI 辅佐技能的潜力,即便是细小、纤细的改变,也能发生有含义的影响。研讨中,自举不时髦的穿戴示例标明,即便没有资源密集型的人工注释,AI 体系也能够学习。

经过专心于简略的修正,Fashion ++能够用于开发出有助于顾客轻松调整着装的应用程序,它也是时髦等范畴运用 AI 的一个示例。而这些范畴,往往被以为太有构思或太片面,AI 难以把握。

Fashion ++并不是从指令或从头界说什么时髦开端,而是从示例中学习,以便供给有用的时髦主张。这样的研讨可能有一天会为人们创建和同享他们最喜欢的穿戴供给新的方法,乃至协助时装设计师发明新的外观。

本文为机器之心报导,转载请联络本大众号取得授权。

------------------------------------------------

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!