xp01 2017-4-21 10:11
Google 开始教机器自己画画,不过我已经被它的「灵魂画作」打败了[10P]
产品观察 | 龟途慢慢
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/b3/19/b3198c57ab09238eff02a4ae24480304.png[/img]
[size=3]大概在去年 11 月的时候,Google 发布了一个很好玩的网页实验游戏,[url=https://quickdraw.withgoogle.com/]「Quick, Draw!」[/url]——这个游戏非常简单,就是根据网页上给出的关键词用鼠标把它画出来,然后系统会在这个过程中判断你画的究竟是什么、能否让系统识别出来。
当然,对于我们绝大多数人来说,「灵魂画手」这个称号自然是逃不掉的。不过这个系统仍然能将你的「灵魂画作」对应成实际的物品,它靠的就是神经网络(neural network)。
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/25/ef/25ef82e6ab7659ffef03274b35b3ab60.PNG[/img]
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/6c/f4/6cf4fd2b9fe7a8ccc1613e3ea5c979d0.PNG[/img]
(下方的图就是小编根据「bicycle」做的画)
随着用户们在这个网页上不断地画画,Google 收集了超过 100 万张的各式各样的画作,而且种类包罗万象。于是 Google 的研究人员用这些画作又建立了一个新的神经网络——Sketch-RNN(Recurrent Neural Network),而它的作用就是通过学习人类的画画形式,来让机器模仿人类画画的样子。
要做到这一点,「Quick, Draw!」这个游戏不仅记录了用户最终的图像,还记录了用于制作它的每笔笔触的顺序和方向。Google 研究员 David Ha 及 Douglas Eck 从 75 种类别中选出了 7 万个 Doodle 的模型供系统训练。
首先,在学习了这些数据之后,机器能够在人类画作的基础上用自己的方式把它画出来:
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/38/ad/38ad8a95b856c72bc927e4b299790cff.png[/img]
在这里,Google 提醒我们注意,它不是简单的复制(Copy),而是在已有基础上画出带有相似特征的新图。比如在上图种最后一行的小猫图种,人类画出了 3 只眼睛,但机器在学习的时候自动做出了调整。
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/f0/69/f069d2a922b73f71fe7d3a0a51ad29e1.png[/img]
同时,为了证明这个网络不是简单地从中选出最像猫的图去模仿,Google 还在「猫」的概念下输入了一个「牙刷」的画作,结果系统成功地将二者结合起来画出了一个不知所谓的东西。但这已经表明「网络已经学会将输入的草图编码成嵌入到潜在向量中的一组抽象的『猫』的概念,并且还能够基于该潜在向量来重建全新的草图」。
然后,Sketch-RNN 可以在抛开人类画作的前提下,尝试自己做出更具创造力的画来。比如下面这些「青蛙」、「猫」和「螃蟹」的图就是系统在学习了之后自己画出来的:
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/aa/96/aa9612a0ede978a8f3de06a79325af86.png[/img]
David Ha 及 Douglas Eck 表示,Sketch-RNN 能在设计上为专业应用提供灵感。比如能绘制猪涂鸦的模型也可以绘制出类似猪的卡车,只要提供卡车涂鸦的输入即可。「我们可以将这样的成果投入应用,帮助创意设计师得出抽象设计,满足目标人群的喜好。」
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/51/cb/51cbdc05fda482d50bb9bc74a48d4709.png[/img]
同时,Sketch-RNN 的解码模块还可被视为独立模型,用于训练其预测未完成涂鸦的可能结果。这种技术可以协助艺术家完成创意流程,协助他们去完成尚未完成的作品。在下图中,Google 绘制了多个不同的未完成涂鸦(用红色表示),并让这一模型以多种可能的方式去完成绘画:
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/28/6d/286dd04cdbe68e0ef3acd24de182877e.png[/img]
在最后,David Ha 及 Douglas Eck 表示:「这些模型将在多个方向上,赋能许许多多有趣的创新应用。它们也可以被作为工具,协助我们加强对自身创新性思维流程的理解。」
而我们前天给大家推荐的[url=http://www.geekpark.net/topics/218618]「AutoDraw」[/url]这款新产品([url=https://www.autodraw.com/]https://www.autodraw.com/[/url])背后的技术基础也就在这里。有兴趣的朋友可以去玩一玩,非常有趣。
[b]人工智能「侵入」创造性领域[/b]
「我们研究的目标是能够以类似于人类的方式来训练机器绘制和概括抽象概念,」David Ha 在一封电子邮件中告诉外媒[url=https://qz.com/958143/apple-aapl-is-buying-so-many-trees-for-its-new-campus-2-that-there-arent-enough-for-anyone-else-in-california/] Quartz[/url]。最终,通过这样的神经网络训练,也许机器在未来可以用一种更贴近人类的方式在这种艺术领域协助人类前进。
一直以来,大众对人工智能最大的担忧就是那些重复性强的工作会被机器替代。但事实上,所谓的「创造性」领域被人工智能「侵入」的行动已经不是新鲜事了。IBM Watson 就是一个很好的例子。
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/8e/0c/8e0cddae51415cb781379e323a148033.jpg[/img]
在去年的 Vogue 11 周年派对上,李宇春身上的一件白色蓬蓬裙成为焦点。据说这是由 IBM Watson 系统 、设计师以及李宇春本人共同完成的中国第一款认知礼服。
在此之前,名模 Karolina Kurkova 在 5 月的时候就身着由英国新兴品牌 Marchesa 定制的「认知礼服(Cognitive Dress)"花朵纱裙亮相红毯。据了解,这其实是一款数据驱动的礼服,其内置的 LED 灯能根据 Twitter 用户对它的评价反映出的情绪变化来实时改变颜色。
[img]https://ocpk3ohd2.qnssl.com/uploads/image/file/8a/9a/8a9a320756eb75387d297f988d17f063.jpg[/img]
而针对李宇春的那款礼服,则是 Watson 在分析了李宇春从 2013 年至今每次出镜的形象,分析了她全部的微博和几十万条粉丝评论之后,建立了李宇春的「时尚形象」和公众评论之间的关联模型。
之后,Watson 根据设计师的构思和选择,从 30 万张图片里识别出礼服的时尚元素,并推荐了 3000 张图片参考。如果没有 Watson,设计师做这些事也许需要 2 个星期,而 Watson 将这个过程缩减到一周。
同时,IBM 在去年 7 月也推出了 Watson Beat 这个人工智能在音乐领域的应用。并且和音乐人 Alex Da Kid 合作,通过 Watson Tone Analyzer API 分析了过去 5 年内,美国最权威的歌曲排行榜 Billboard Hot 100 强歌曲中超过 26000 首歌的歌词,以了解每首歌曲背后的情感。并且运用 Watson Beat 探索出「心碎」的音乐表达方式。
当然,这些尝试都还处在先锋领域的试水阶段,离大众还有一段距离。但不管是 Google 还是 IBM,人工智能在发挥自己「创造力」的领域已经开始有了更多的进展和尝试。[/size]
[[i] 本帖最后由 ddywolf 于 2017-4-21 13:06 编辑 [/i]]
zixing123 2017-4-21 17:46
虽然跟小孩子画画差不多,但已经不是模仿而是在学习,这是人工智能的一大进步