这玩意儿,最初是出现在很多硅谷it公司,那些程序员嫌弃代码写好后、编译速度太慢,甚至觉得光靠专门的编译服务器都不够用,所以天马行空地创新出一个
“分布式编译架构”,让一家公司里所有同一局域网内的电脑,都可以加入这个架构,然后把编译任务拆分分配给所有电脑,让所有cpu共同分包编译。
分布式编译是从07年出现的,一两年之内,这玩意儿就成长成了
“云计算”。有了云计算之后,应用就很广泛,而云计算对人工智能训练的最大影响,就是某个智能在执行机器学习的时候,不用再受限于这个机器人本身那颗cpu的算力了——机器人自己的cpu不够快,可以接入云,用云上的几千几万台机器的cpu帮你一起算。
这时候,摩尔定律就不重要了。只要算力任务能高效拆分,单颗cpu弱一点就弱一点了,咱可以芯海战术堆数量嘛。
如此一来,其他那些
“算力效率更高、白盒可解释性更强、但训练上限和自动化程度更低的算法”,一下子就争不过深度学习了。
因为深度学习原先最大的瓶颈,就是黑盒,算力效率低下。但云计算的出现,让算力瞬间没那么值钱了,可以大水漫灌狂训你。
……这些道理,顾玩心知肚明,不过他没法全部告诉麻依依。他只能鼓励麻依依,让她往这个领域布局,夫妻俩暂时把外围科技先凑起来。
幸好,时间上也不是非常紧急。地球上杰夫辛顿让学界接受深度学习,就花了两年。
至于后来从学界承认到产业界承认,又花了四年——其中三年都是在等云计算的出现。
他的成绩06年在学界就初步被认可了,但09年云计算才正式出现,2010年杰夫辛顿才被谷歌高薪挖走。
后世的人工智能,用一句话概括运作原理,就是
“使用云计算的算力,用深度学习算法处理学习大数据”。算力,算法,大数据。
三要素里,从技术难度来说,最先有的是大数据,这是一种资源,有稀缺性,但却没有技术含量,所以是最早出现的。
算法,或者说深度学习的思路,是第二个出现的(06年)用这种算法处理这些数据的算力,是最后出现的(09年)三要素都齐了之后,第二年地球上谷歌就开始在这条路上狂奔了。
顾玩觉得,就算自己开了挂,也有1年多的时间,先把基础算法方面的架构性论文发完。
具体追求产业界应用的事儿,将来去留学开公司期间再说好了。而且,把算法渊薮阶段的论文,在中国念书的时候就发表,将来也好撇清跟老外的关系——咱可不是去斯坦索姆留学后,才琢磨出这些玩意儿来的,一开始在中央科大念书,就已经有这方面的建树了,功劳都是中国人的。
让麻依依认识清楚这一切节奏后,顾玩明确分配了任务:“你今年除了修学分之外,我就给你两个发论文的任务。第一,你在计算机本专业领域,琢磨一个分布式编译的活儿。把架构想出来,在你们数科院的项目公司也好,研究所也好,先试着干起来。确有提高效率,就可以把这篇实验性的论文发出去了。第二,在你双修的认知神经科学领域,我希望你发一些人脑神经学习效率方面的研究——跟计算机没关系,就是研究活人的学习效率,多做对照组,具体实验设计,我会帮你一起参详的。这些论文不会直接产生商业价值,但是会让你我有资格在相关领域的顶级期刊稍微混点脸熟,进入圈子。”顾玩原先也发表不少论文了,但可惜都是物理类的。
正所谓隔行如隔山,一旦他想进入数学/计算机算力架构/认知神经科学,重新刷脸刷声望,肯定是免不了的。
就跟你打魔兽,哪怕奥格瑞玛崇拜了,幽暗城还得重新刷不是。当然了,你奥格瑞玛崇拜,对于你幽暗城声望的刷速度肯定略有帮助,比你一个所有声望都没有的纯萌新,肯定要容易一些。
麻依依还是没太明白老公分配的具体任务,但她觉得这不妨碍她搞个人崇拜,盲目迷信跟着老公的思路走。
“我这学期还是先从分布式编译下手吧。我本来就是学计算机的,我觉得这个容易写,也容易发表。”麻依依读大学这一年多来,也是发过论文的,不过一共只发了两篇,还都是在本校的《中央科大学报》上。
这个成绩跟其他本科生,甚至是其他想当交流生的顶级优等生相比,已经很牛逼了。
但是跟她老公一比,那就简直是菜的不行。这次的分布式编译架构,她决定鼓捣出来后,发到外面的期刊上,最好还是外国的。
()搜狗