将简洁好用的结构反复重复,这也大大地降低了孟繁岐所需要的开发工程量。
AlNet是八层的结构,各自有一些独立的设计,在此时,8层已经是革命性的深度网络了。
更深的网络特别难以训练,因此原本直到14年,谷歌和牛津才分别把这個深度推进到22层和19层。
而ResNet的思想,彻底从根本上解决了网络变深就没法顺利训练的问题。它让50,100,150,甚至1000层网络的训练成为可能。
“从去年的8,到今年的100+层,甚至1000层也可以训练。在2013年的视角来看,这一剂猛药应该够劲了。”
不仅是深度上取得了开创性的突破,ResNet的性能也同样惊人。它是第一个Top-5错误率低于人类能力的结构,单模型达到了4.6%左右。
如果综合几个不同方式训练的ResNet,平均他们的输出再去预测的话,其TOP-5错误率甚至低至3.7%。
“其实在IMAGENET上做得太准了反而是一件怪事。”考虑到后世的研究中,该数据集中的标签其实有不小的比例是错误的,越贴近百分之百的准确率反而越有一些荒诞的感觉。
ResNet的Res指residual,正经点说是残差,说得明白一些是一种短路或者是跳跃链接。
();() 再说的浅显一点,假设原本的操作为f(x),ResNet就是把计算过程从f(x)改为f(x)+x。
这也是孟繁岐最早与付院长讨论的内容之一。
这种不带任何参数的支路链接,直接把操作前的内容加到操作后的内容上,是深度网络突然能够在上千层的深度下收敛的秘密所在。
在此之后的几乎所有AI文章,都很难绕得开这个思路。恺明本人单就这一篇文章,就在六七年的时间内收获了十五六万的文章引用。
不得不说这是一个天文数字。要知道即便是NatureCellScience三大世界级顶刊常客,著名华国美国双料科学院士抽出一个来,至今为止所有文章的总引用数量加在一起五万多都算是多的了。
当然了,单以论文被引用的次数来评价文章的水平和作者的水平是有失偏颇的。
很多基本学科曲高和寡,看得人少写得人也少。引用自然就上不去。
但就AI这个实用性实验性比较强的学科来说,内部去对比的话,引用的多少含金量还是相当之高的。
大家只会用代码投票,有价值的东西会一直迭代下去。有利于自己模型在任务上性能提升的技术,则会被一直引用下去。
学术界一直有这样的说法,搞理论的和搞实验的两边相互看不起。这倒也不是无中生有。
恺明凭借几篇代表作奠定自己历史地位后,就总有个别人喜欢说什么“ResNet的思想早就有人提过了”,“几十年前的东西不算什么新东西”,“这篇文章也就是流量大罢了,和流量明星是一样的”。
酸味都要溢出屏幕了。
孟繁岐不是没读过一些理论类的文章,但他个人觉得新时代的AI,P话谁都会说,代码写出来才是本事。你说几十年前就有的东西,怎么不写一个ResNet突破人类水准呢?
ResNet的核心代码难写吗?不难的。
基于阿里克斯的框架,只需几个小时的时间,他就可以基本复现出ResNet论文中的所有结构。
弱小和无知不是生存的障碍,傲慢才是。
请勿开启浏览器阅读模式,否则将导致章节内容缺失及无法阅读下一章。
陨落星辰: 当场怒喷哥哥,这解说不想干了? 主宰:虫族崛起 大唐第一逆子 什么叫世界名帅啊 明日方舟之铁与血 大明:我杨宪,真的治扬! 海贼:阿卡姆肄业的小丑巴基 异常魔兽见闻录 神秘复苏之我没有外挂 纵目 全职法师之魔法天赋 无限超神:抬头看见云霄天庭 自遮天世界开始 前任都是天后,我火了 华娱之开局给周董上上对抗 你是我的满世欢喜 天骄退婚,我提取词条修行 我以道种铸长生 火枪洗明路
穿越到了地狱的贝尔希,意识到自己成为了一条深渊龙。携带着暴食之加护的他,只能够依靠不断的吃吃吃来变强了。桂花蜜味道的深渊魔虫花生酥味道的蛋壳,还有一只跟着他蹭吃蹭喝的史莱姆故事也将从这里开始。—已有多本完本经验,成绩一般但依旧坚持将故事讲完,人品大概还算可靠。书友群(与残月狂徒大人一起玩)926993534各位书友要是觉得暴食之龙从地狱位面开始还不错的话请不要忘记向您QQ群和微博里的朋友推荐哦!...
本书更新时间为晚上十二点,日更六千。下本开我的私房菜馆通八零,求预收。姜晓菱有一个秘密,除了她没有人知道。那就是在她十七岁生日的时候,脑子里忽然出现了一个叫做闲鱼的系统。那系统可有意思...
失业的物业小职员天赐,偶遇神秘兮兮的老头子雇他去当一座公寓的物业经理,据说那里美女成群,待遇丰厚,干得好还能抽取福利,他乐颠颠的签了合同,可到了公寓彻底傻眼了...
月烑上一世什么都靠自己,吃苦耐劳殚精竭虑,终于一步登仙。可惜大限已到,陨落了重生之后,她立刻总结了失败的经验教训。认识到关键问题在于太勤快了所以这一世,她励志好吃懒做。...
...