天猫walter van ck-mb,walter保险丝

本篇文章给大家谈谈walter van ck-mb,以及walter保险丝的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

文章详情介绍:

从世上最昂贵的牛皮纸袋谈谈那些来自比利时的天才们吧

从所谓世上最昂贵的牛皮纸袋

谈谈那些来自比利时的天才们吧

切一片2012年

从Jil Sander说起.

2012年,距离Jil Sander第二次离开自己同名品牌过了7年,同样意味着接棒的Raf Simons已经在这里工作了7年。

Jil Sander

Raf Simons 的最后一场spring RTW

这时,同为极简主义代表设计师的Phoebe Philo,生完孩子任职Cline不到4年。

此前两年,她设计的一款叫做box的包,开始风靡世界,远在中国广州的白云批发市场的皮具商们也因为这个“爆款”大赚了一笔。

甚至在今天,这款有着从200块到3w的神奇价格区间的包,依旧在微商们的朋友圈熠熠发光。

出镜率不亚于GUCCI GG系列的box

这时谁又会想到,当Jil Sander做出她第一件直线剪裁的衬衫时,Phoebe还没考上那所著名的圣马丁学院。

Jill Sander spring 2000 RTW

所以,如果超脱当年,纵观时尚史,2012年真不是个发生大事儿的年份。

即便这是Raf Simons在Jil Sander的最后一年,而他即将接任Dior总设计师的消息早已行业内公开的秘密。

不过2012年总的来说,还是挺平稳,如同Jil Sander这个品牌一样,不温不火,虽然几次易主,商业价值依旧无法走高,这也并不妨碍,你衣橱里最好穿的那件白衬衫带着Jil Sander的织标。

没错,这个由德国设计师创立的服装品牌,在我心中绝对是最好的设计师品牌之一。

虽然75岁高龄的Jil Sander三进三出自己品牌这件事,一直被人议论纷纷;但Jil Sander的神奇之处,在于无论是谁接棒,都能保持属于品牌本身的极简风格和精致的成衣做工。

Gisele at Jill Sander Fall 1999

说到这里,我就非常理解,1999年,在品牌被Prada收购之后Jil的第一次出走,是因为Prada的质量,嗯,你们懂的……

纸袋 “Vasari”

不是水洗牛皮纸,是牛皮纸.

话题扯远了,令人意想不到的是,比起Raf执掌Dior这件事,当年在国内被讨论的最多竟然是一款名叫“Vasari”的牛皮纸袋。

它出现在Jil Sander男装秀场上,国内的各种媒体,都冠以世上最贵牛皮纸袋的名头做报道,售价是185英镑,差不多1800元人民币吧。

当时,很多人猜想这是用水洗牛皮纸做的,然而上架之后,竟然只是普通的铜版纸(也不防水,简直就是一次性的包)。后来,因为纸的卖得太好,于是推出了同款牛皮包,售价630英镑。

“两代”比利时设计师

此时不得不说到Raf Simons,作为第二代比利时设计师,也被认为是安特卫普六君子(The Antwerp Six)的接棒人。

时尚圈真的很愿意搞“接棒人”这样的说法呢,弄得好像一群清瘦的设计师在跑接力一样。

别看我说得头头是道,可我从来没有真正把这六位的名字读下来过。

记不住没关系,只要想着他们,外加一个名字叫做Maison Martin Margiela的神秘男子,绝对是上个世纪80年代,对时尚圈影响最深的人就好。

而他们都来自比利时。

第一代安特卫普

前卫又鲜活

安特卫普是比利时的一座皇家艺术学院,而毕业于此的六位——Walter van Beirendonck、Ann Demeulemeester、Marina Yee、Dirk van Saene、Dries van Noten、Dirk Bikkembergs——被合称为六君子。

其中Marina Yee是位姑娘,而且和六君子的编外成员Maison Martin Margiela是情侣关系。

为什么会被捆绑统称,首先他们是同学关系,而且当年就是他们外加MMM一起去参加各种国外的展推销自己。

因为穷,所以基本上是合展,日本、伦敦都留下了他们“惨淡”的痕迹。是的,他们当年无论在面料上、还是剪裁上,都过于大胆创新,说他们创造了时装上的解构主义裁剪都不为过。

1984年,他们在大阪有了第一场联合发布,但是几乎啥也没卖出去;而这距离川久保玲使用拼接在1992的巴黎时装周上掀起解构主义风潮,早了八年。

Comme des Garcons Fall 1992 RTW

第二代的Raf Simons

他让艺术作用于时装.

比利时的设计师们一直对所谓的时尚圈保持着相对疏离的态度,他们对于服饰的理解更加艺术化。

这可能与他们受过的教育有关,衣服不过是他们艺术展现形式的一种,和绘画、摄影、雕塑没有区别。

作为第二代比利时设计师中的佼佼者Raf Simons,和前辈们相比已经靠近了商业化,但依旧传袭了同样的想法。

因此,比起同代的设计师,Raf不算风格很强烈、标签也不浓重。他热爱极简,但是对于色彩从来都不排斥;他喜欢解构,但是对于传统的沿袭也足够规矩。

正是如此,Raf的服饰在与其他艺术家做跨界合作的时候,一点儿也不违和。

有很多大牌做不到这一点,比如LV和村上隆的合作,虽然如今高价难寻,但平心而论,谁能觉得不丑呢?不过是靠品牌和艺术家本身的价值加持罢了。

而Raf的系列从来没有过这样的尴尬,与他的老友艺术家Stering Ruby,累计十多年的默契合作,更是可以作为经典放入时尚史。

时尚的快速发展

还有社交媒体……

从一个牛皮纸袋就说了这么多,其实如果作为当代艺术,被杜尚签个名,一个简单的面包袋就可能价值几万美金。

所以如果从艺术的角度去理解时装,很多不懂的事儿,可能就能稍微代入一些。

一个普通的lunch bag,被Raf Simons改造之后就价值180英镑。但在我来看,却依旧比一块Superme的砖头有质感的多。

这些前辈们玩儿剩下的,不知道为什么走到今天却变了味道。

在不少品牌开始“媚青”(谄媚青年人)、“街头化”的时代,在一场秀的准备时间从半年变成了三个月的时代,成衣从T台到市场需要半年变成了一个月的时代,这个大家再也等不起的时代……

是否还会有设计师把服装当做艺术去做?我们不知道。

因为恐怕市场已经淘汰了一大部分这样的设计师,社交网络逼着很多传统设计师转型成KOL。

我们以前永远不会知道Gabbana有多烦人,只要欣赏Dolce & Gabbana大秀就好,如今我们终于知道了做出这一件件华服的男人是什么样子,而这对我们消费者到底有什么好处呢?

看着我年轻时的偶像们一个一个被网络扒个精光失去神秘感,我必须被迫按头看着他们打着肉毒的脸,僵硬的做着不得体的事,说着不得体的话,我得承认一个时代又结束了。

退出时尚界十年后

MMM的来信.

2018年10月,出了一件怪事儿。比利时时尚大奖颁给了Martin Margiela,这位已经消失于“世间”十几年,据说已经成为画家的传奇隐形人。他罕见的回了一封信,他说——

“我觉得我无法应对全球日益增长的压力和贸易需求的过度增长,我也对社交媒体过多的信息感到遗憾,这摧毁了‘等待的快感’,随之消磨的还有一切惊喜的效果,这对我来说非常重要。”

是的,这非常重要,虽然已经很少有人在乎了。

GOODGOODS

》复古水洗牛皮纸袋《

复制手淘打开

¥hhJobKOlNlT¥

Gary Marcus:在人工智能上取得成功的「叛逆者」

 

机器之心原创

编辑:吴攀、李亚洲

Gary Marcus 为机器之心 「2017 全球机器智能峰会」的重要演讲嘉宾。

演讲时间:5 月 27 日,14:50-15:10

演讲主题:Control Intelligence and Machine Intelligence

近年来,在计算机计算能力的指数级突破和数据量飞涨这两大因素的推动下,深度学习带来了人工智能的又一波浪潮。图像识别、语音识别、视频理解、自然语言理解、博弈、预测分析、内容生成…… 深度学习不断地在不同的应用领域创造着惊喜。

2016 年 3 月份 AlphaGo 的一场人机大战,彻底将深度学习的浪潮推向了巅峰。似乎一夜之间,人工智能、深度学习成了人人都在关注的关键词——工程师探讨新应用、企业家在寻找新商机、政府和社会学家在思考新的社会问题,其它领域的科学家也开始将其用作辅助研究的手段。

但备受追捧的背后,还有一种声音让我们警惕深度学习的过度炒作。

这一波深度学习引发的人工智能浪潮中,Gary Marcus 就是这样一个 「叛逆者(contrarian)」。2016 年在 Edge 的一次视频专访中,他曾表示自己觉得人工智能正走在错误的方向上。他不确定深度学习、大数据否能让我们靠近人工智能中更加深层的问题,比如如何理解语言,或是怎么推理这个世界?

不管是发表作品、评论,还是公开露面宣讲,Marcus 都以一个严厉的深度学习批评者身份亮相。

他在神经认知科学领域的坚持,是深度学习火热的今天发展人工智能的不同方向。正如瑞士人工智能公司 Demiurge Technologies 联合创始人 Bragi Lovetrue 告诉机器之心的那样,「在纽约大学,Yann LuCun 等学者将深度学习带上巅峰的同时,Gary Marcus、Brenden Lake、Ned Block 等学者已为后深度学习时代的人工智能打下了坚实的地基。期待后深度学习时代的人工智能从大脑、意识和婴儿研究中汲取灵感,创造新的算法与架构满足深度学习所释放的对人工智能的广泛需求。」

Marcus 与深度学习

1956 年,美国达特茅斯大学的一次会议推动了全球第一次人工智能浪潮的出现,也就是 1956 年到 1974 年。当时,在算法方面出现了很多世界级的发明,其中包括贝尔曼公式以及感知器。感知器作为首个可训练的神经网络,由康奈尔大学的心理学家 Frank Rosenblatt 于 1957 年提出的。

但后来,Minsky 和 Papert 发表了一部名为《Perceptrons》的著作,证明在感知器上执行一定量的常见计算会非常耗时间,不切实际。不久之后,人工智能就迎来了第一波寒冬。

在这期间(1970 年),Gary Marcus 出生在美国马里兰州巴尔的摩。在高中时期,他读了认知科学家 Douglas Hofstadter 和哲学家 Daniel Dennett 合编的关于意识的文集《 The Mind’I》,同时也读了 Douglas Hofstadte 关于机器和心灵的著作《哥德尔、艾舍尔、巴赫》,从此他开始对「心智」变得着迷。

在接受 MIT TR 记者 Will Knight 的专访时,他谈到自己写过的一个可以将拉丁语翻译成英语的程序。Marcus 表示,这项工作的困难让他意识到,如果我们要在机器中重新创造智能,就必须更加理解那些隐藏于人类思维中的运作现象。

进入 20 世纪 80 年代,人工智能迎来第二波发展的浪潮。80 年代中期是一个有趣的时期,那时的人工智能分化为两个阵营,一方希望通过复制大脑的基本生物状态来创造智能机器,另一方的目标则是用传统计算机和软件来模拟更高级的认知功能。

在这个时期,人工智能领域产生了新的变化。一些心理学家想出了一个方法,认为可以完全颠覆人工智能。这一方法与神经网络有关,也就是现在耳熟能详的深度学习的前身。

1944 年,两位来自芝加哥大学的研究人员 Warren McCullough 和 Walter Pitts 首次提出了神经网络,他们描述的神经网络有阈值和权重,但并不是按层的方式排列的,而且当时研究人员也没详细说明任何训练机制。

McCullough 和 Pitts 展现的是神经网络能够在理论上计算任何数字化计算机能够计算的函数。结果更偏向于神经科学,而非计算机科学。

同一时期,加拿大心理学家 Donald Hebb 也提出了关于大脑中神经元如何学习识别一个输入的理论。他的研究表明,重复的神经元放电可能会加强它们之间的联系,从而提高遇到同样输入时再次放电的可能性。一些研究者采用类似的设计思路建造了计算机。

但是,这种所谓的神经网络效能很低(例如前面提到的感知器)。直到 1986 年,一组研究者发现了提高神经网络学习能力的方法,其中包括著名的多层神经网络(1986)和 BP 反向传播算法(1986)等。这些研究者还展示了神经网络可以用来完成许多不同的事情,从视觉数据中的模式识别到学习英语动词的过去时态。只要有足够的数据样本用于训练,这些网络就能形成执行某些任务所需要的连接。

这些研究者把他们的方法称为「联结主义(connectionism)」,并声称只要有足够大的神经网络,就能重现智能。

在联结主义兴起之时,Marcus 正在决定自己要去哪里读研究生。他参加了著名认知科学家、时任 MIT 教授的 Steven Pinker 的讲座。Pinker 讲到了儿童学习和使用动词的方式。他认为,与纯粹联结主义者的预期不同,儿童学习动词过去时态的时候,似乎并不是纯粹记住一些例子再推而广之的过程。Pinker 展示的证据表明儿童在学习过程中很快就能察觉出语言规则并加以概括推广。他和其他人都相信,从本质上说,进化塑造了人脑中的神经网络,为更加复杂的智能提供了必要工具。

Marcus 在研究生期间收集了更多证据,来支持 Pinker 关于学习的理论,并形成了自己的理念。他率先将大量认知研究数据电子化,研究了几千份儿童语音的录音资料来寻找他们的错误,例如将「broke」和「went」误说为「breaked」和「goed」。这似乎证实了儿童掌握语法规则后会将其运用在新词上,并通过死记硬背来学习那些不符合规则的例外情况。

基于该项研究,Marcus 开始质疑联结主义者们认为智能会从大型神经网络中自动涌现的想法,他开始将注意力集中在深度学习的局限性上。

在 21 世纪的第一个十年里,神经网络再次衰落。

「1989 年,我毕业的时候,所有人都在喋喋不休地讨论神经网络。然后这些人消失了。专家体系也存在这种现象。兴趣像潮水一样涌来,然后又无影无踪。我们这个领域的人最担心的就是这种现象会不会再次发生。现在的人们为什么对神经网络有如此高的兴趣,这种热情能够保持下去吗?」。这一年(19 岁),Marcus 加入了 Pinker 在 MIT 的实验室。

人工智能的 「叛逆者」

Gary Marcus 的 TED 演讲

「叛逆」 并不是一个纯粹的贬义词,也不能算是褒义词,但如果使用得当,它倒有点坚持正确并孤身逆势而为的意味。在今天的深度学习热潮中,Gary Marcus 将自己看作一个 「叛逆者」。

「毫无疑问我的观点有些叛逆。我的看法是人们对那些仅代表了一小部分我们实际需要实现的东西很有热情。」在 Technical.ly Brooklyn 的一次采访中他这样说到,「我认为机器在这些事情上没有取得进展。它们确实已经在语音识别这些任务上有进展,但这不是语言理解,只是转录而已。」

就像前面介绍的,近些年来基于深度学习的人工智能采用的是一种并不算新鲜的形式——人工神经网络。这种网络是由许多(有时是几百万个)独立的单元组成的,它们叫做神经元(neuron)。每个神经元都会把多个数字输入转化成一个数字输出,然后再把它传递给另一个或很多个其它神经元。就像在大脑中一样,这些神经元被分成很多「层 (layer)」——一些可以获取下层的输入数据并把它们的输出传递给上层的神经元团。神经网络通过输入的数据不断调整其连接的方式来进行学习,直到网络计算出与已知输出(一般由很多子类组成)尽可能接近的输出为止。

但这样的网络有一个缺点:需要大量乃至巨量的数据。比如说,微软和谷歌都已经开发出了超人级的图像识别算法——其在标准数据集的识别上已经超过了人类的平均水平,可以识别数千种不同的物体,从清真寺到蚊子等等。但是为了达到足够击败人类的性能表现,这些算法需要数以百万计的有标注的数据。而对于人类,一个小孩仅需要少量甚至只需一个样本就能学会识别一种新物体。

在评价当前深度学习主导的人工智能现状时,Marcus 毫不客气——他甚至并不认为深度学习是 「智能的」。他在 2012 年发表于《纽约客》的一篇反响很大的专栏文章《「深度学习」 是人工智能领域的一次革命吗?(IS 「DEEP LEARNING」A REVOLUTION IN ARTIFICIAL INTELLIGENCE?)》的结尾处说:「Hinton 造出了一架更好的梯子;但一架更好的梯子并不能帮你登上月球。」

「容易取得的成果比我预想的多一些。我看到别人给出过更简洁的说法:深度学习不是 AGI(通用人工智能)。你确实可以使用深度学习做很多事情,比如做更好的语音识别,做更好的目标识别。但那并不意味着就是智能。智能是一种多维度的变量,里面存在很多东西。」 他在 TechCunch 对他的一次采访中说道,「现在是感知(perception),只是整体的一小部分。这确实是很重要的一部分,但人类智能里面还有更多的元素,比如我们关注合适的事物的能力、推理和建模当前发生的事情,进而预测未来可能发生的事情等等。而感知只是其中的一部分。深度学习也只是有助于这一部分。」

智能有很多组成元素,感知只是其中一部分,另外还有语言、推理、类推、规划和常识;图片来自 Gary Marcus 的 TEDxCERN 演讲

Gary Marcus 相信,要想实现真正的人工智能,光有深度学习是远远不够的,我们还需要更多方向。

认知科学与人工智能

既然光靠深度学习不能实现我们心中的通用人工智能,那么我们应该怎么做呢?Gary Marcus 认为,为了推动实现通用人工智能的宏伟目标,我们应该「更加认真地对待认知科学,尤其是发展心理学和发展认知科学。」

认知科学是 20 世纪世界科学标志性的新兴研究门类,探究人脑或心智工作机制,研究的领域包括:语言习得、阅读、话语、心理模型小概念和归纳、问题解决和认知技艺获得、视觉的计算、视觉注意等等。

认知科学的六角星

经过半个世界的发展,认知科学已经不像初期那样「聊聊心智是什么」了。到了本世纪,国际认知科学学会会士 8 位哲学家之一的保罗 · 萨伽德在《心智》一书中,以一种统一的视角,将心理学、人工智能、神经科学、语言学、哲学、和人类学探索认知的进路统统归为对心理表征和心理程序的处理。

从 1956 年美国达特茅斯学院的那一场讨论会开始,人工智能的发展起起伏伏。几经波折后的人工智能领域,除了少数人在坚持传统外,主流人工智能界也开始转向针对特殊问题的的设计求解。人工智能先驱 Marvin Lee Minsky 就曾表示过,「人工智能的研究从 70 年代开始已经『脑死亡』了。」

到了 21 世纪,以「通用性」为目标的通用人工智能开始再次复兴。2005 年,通用人工智能领域的代表人物马库斯 · 胡特第一次给出了真正能适应各种不同环境的通用智能主题的数学模型 AIXI,它只有一个公式:

而在最近,DeepMind 深度学习结合强化学习玩 Atari 游戏的方式也显示了一定的通用性。DeepMind 也一直在对外宣称自己有着「建立通用人工智能」的目标。

整体上看,DeepMind 的研究解决了人工智能领域里一些重要的问题,比如自然语言理解、感知处理、通用学习和用于评估人工智能的策略。虽然特定的模型已经证明了在有限领域内的认知能力,但目前它们还无法代表一种统一的智能模型。

为了实现自己的通用人工智能目标,Gary Marcus 建立了一家致力于让人工智能系统和代理通过使用很少的数据就能进行有效学习的创业公司 Geometric Intelligence。他认为,「认知科学与神经科学交汇衍催生的新想法将对未来的人工智能研究至关重要。」除了 Marcus,创始成员还包括剑桥机器学习教授 Zoubin Ghahramani、中佛罗里达大学计算机科学教授 Kenneth Stanley 和纽约大学神经语言学博士 Douglas Bemis。

在 MIT 科技评论的 EmTech Digital 的一次演讲中,Gary Marcus 曾表示 Geometric Intelligence 的目标包含两个方面:

 

通过创新的、正在申请专利的可从更少数据中更高效地学习的技术来重新定义机器学习的边界

 

 

在一个更稳固的框架中逼近规则和控制的力量,整合机器学习的当代进步,同时在它们之上进行延展

 

为了实现这样的目标,他们从人类认知心理学(human cognitive psychology)上获得了一些灵感。去年,Geometric Intelligence 宣布成功开发出了一种可以使用更少的数据进行更快的机器学习的算法 XProp。

据介绍,相比于目前最为流行的深度学习方法,这种方法所需的样本数量可以少得多。

XProp 和某种没有具体指明的卷积神经网络方法的一个比较——在样本量相同时 XProp 的街景门牌号(SVHN)分类误差低于卷积方法。

Geometric Intelligence 没有披露有关 XProp 工作方式的更多细节,而现在这个算法应该已经落到了 Uber 手里。

去年 12 月,Uber 以未披露的价格收购了这家公司,随即便以该公司的员工为核心组建了自己的人工智能研发团队 Uber AI Labs;Gary Marcus 也随之加入并担任该实验室的主管。不过那之后仅仅过了四个月,Marcus 就离开了 Uber。

畅销书作家

除了思想家、科学家、创业者和企业家的身份,Gary Marcus 还是一位畅销书作家和专栏作者,他发表过的专著包括《Guitar Zero: The New Musician and the Science of Learning》、《Kluge: The haphazard construction of the human mind》、《The Norton Psychology Reader》、《The Birth of The Mind: How a Tiny Number of Genes Creates the Complexities of Human Thought》和《The Algebraic Mind: Integrating Connectionism and Cognitive Science》。

其中 2012 年的作品《Guitar Zero: The New Musician and the Science of Learning》讲述了他在近 40 岁 「高龄」时学弹吉他的故事,通过这段经历,他研究了人在不同年龄是如何掌握新技能的。

在本书中,Marcus 提出了这样的疑问:几乎每个人都可以听音乐,但是不是每个人都能演奏音乐呢?演奏音乐是一种与生俱来的能力吗?还是所有人都可以习得?如果六岁的时候没有开始学钢琴,现在还来得及吗?过了学习的黄金时代(一般认为是成年以前),我们还有机会重塑自我吗?

为了解答这些问题,当时已经年近 40 岁的 Gary Marcus 决定拿自己来试验一下——这位之前没有表现出任何音乐才能的科学家决定开始学习吉他。在这个过程中,Marcus 对人类的心智可塑性和学习能力进行了探索。通过对吉他专家的调研,Marcus 研究了如何学习一门乐器的最有效方式——怎样进行刻意且有效的训练?怎么找到最好的音乐老师?天才真的存在,还是只要努力就能成功?

Guitar Zero 展示了一种音乐的科学,揭示了音乐直觉等等常见的谬误。在此之上,Marcus 又提出了一个对人类来说非常基本的问题:人生中最重要的是什么?人生旅程本身就能让大脑满足了吗?如果你对音乐、学习和丰富多彩的人生感兴趣,不妨读读这本书。

而在另一本书《Kluge: The haphazard construction of the human mind》中,Marcus 对人类心智的构建方式进行了探索。

为什么我们可以认出高中毕业照上的同学却不记得昨天早餐吃了什么?为什么当广告写道 「每位顾客限购 12 只」 时,我们往往倾向于比广告写 「每位顾客限购 4 只」 时买得更多,尽管价格一样?在这本书中,Gary Marcus 令人信服地说明了人类大脑并不如我们想象的那么优雅完美,而更像是随便拼凑起来的。Gary Marcus 认为,人类的进化是阶段性的。在新的模块还在组建的时候,我们依然需要旧的模块继续工作,让大脑维持运转。一边构造一边使用就会导致各种偷懒、草率、抄近道。就好像大脑是一个混乱失调的车间,年轻的工人(前脑)处理语言等新技能的同时,老保安(中脑和后脑)则在管理着系统记忆和地下室的保险丝。由此造成的不良后果包括:抑郁、疯狂、不可靠的记忆、偏见。

Gary Marcus 的书总能为我们带来关于人类心智的新思考,他的文章、演讲、评论和研究也在不断帮助人们更好地了解智能、心智和我们自身存在的本质,并为人工智能的发展提供不一样的见解和方向。