库克教授直接就点出了顾诚的短板。
别的产业界大牛,无🐪🂦论微软还是谷歌,好歹有一水儿的顶级大学研究所支撑。顾诚虽然也是搞互联网的,但他的技术含量是最低的那一型。
就像后世bat三巨头当中,腾云是技术含量🗛🜖最低的一个。
“你提到了神经网络算法这个拟研究方向,但我看不出来这和你的产业🕖有什么结合。让我们多伦🟇🛃多大学🎀🍼的教授去做那种看不到学术前景的花里胡哨东西,有违本校的学风。”
库克教授也不管自己只是个所长,直接就盖棺定论🐎了。
所谓“神经网络式算法”,库克教授十几年前就有涉猎,相🕰比于80年代以来的其他“np穷尽理论”而言,其最大的特点是“没有运算核心”。
用人体来举例,人作为一个生物个体而言,是有中枢神经的绝大多数机体行动,都是大脑控制肢体,眼口耳鼻手足感知到了外部信号之后先要通过反射弧传递🖼😀♾到大脑(部分最低级的反射,至少也要到延髓/脊髓处理)等大脑作出处理指令之后,手足才会作出反应。
但是如果把大脑单独作为一个独立个体解剖开来看,大脑内部上千亿个神经元是平等的。并不存在“某一小撮神经元高于其他🗟🜷周边神经元、从而🍨💭在处理信息时先由这一撮神经元预处理、预处理完之后再交给下一撮神经元处理”这样的先后顺序。
(神经网络当然还有其他很多基础特点,这里仅仅讨论和“遗传算法/退火算法”的主要区别,🟇🛃所以不多赘述了。否则能🝱水几万字,大家还看不懂。)
当年“神经网络”的概念被提出时,就是为了探讨一种让电脑高效处理类似于“找到礼堂里到底有没有我认识的人”问题的新方法:如果可以有多个电脑,自然随机地分配任务,并行从多个点开始用就近算法寻找,那么自然🛔可以在“单核cpu”性能比较弱的情况下,通过堆砌cpu数量加快问题的解决速度。
但这个概念并没有“节约计算资源”,因为理论上它只是把“1台电脑10小时工作量”变成了“10台电脑1小时的工作量”而已。而且这种🍨💭最原始的“神经网络”也依然没法解决那些“似是而非”的模糊问题他们只能回答“有我认识的人/没有我认识的人”这种非此即彼的问题。
库克点名了在🙂🚠这个领域让顾诚对其🁇应用模型说出个子丑寅卯来,顾诚自然不能避战。
“我拜读过辛顿教授对于神经网🏊络的最新模型假说,卷积神经网络,以及与之配套的学习型算法。我认为这个东西可以和互联网的自动识别/索引工具相结合🖼😀♾。至于具体的应用场景么……那就属于商业🁦🟋机密了,恕我无可奉告。”
“卷积神经网络的新用法?”
史蒂芬🌖⚱🕐.库克教授一愣,但很快冷静下来,他可不是一个概念就能忽悠住的。
“看来,顾先生要论🐪🂦述的重点,就在于‘卷积’上🐎面了?”
“没错,如果没有‘卷积’,仅有‘神经网络’🏾,我们依然没法讨论近似于人脑判断的模🞃糊问题。”顾诚一副成🟥🟓🜯竹在胸的样子,似乎对对方的反应早有预判。
他打开电脑🟇🚿,接上投影仪,屏幕上🁇出💭🕄现了一张猫的图片。
“我用图上这只猫举例子尽😼管这只猫一只耳朵竖着一只耳朵折了,眼珠瞳孔也有点不正常,尾巴还特别短,毛色肮脏还和照片的🇨🛉背景色非常接近,但我作为一个人类,还是一眼就认出了这确实是一只猫🁦🟋。
现在,我用我根据辛顿教授的阀值思想编写的自学程序,用机器对这只猫是否是猫进行初次预判。在这个算法里,我们预构了30个组合特征量,比如‘猫眼’、‘猫耳’‘🅤猫毛’、‘猫尾’……然后用三十个神经元单位的处理资源,分别针对每一个组合特征量进行预判,然后分别给出结果。
在这三十个神经元单位内部,我们再根据‘本图猫眼与本神经元见过的猫眼’之间的像素相似度作出判断,给出一个积值,从而得到‘这有85%概率是一只猫眼’或者‘有70%概率是一只猫耳’之类的参考量。最后,把这30个组合特征量按照默认1:1的权重进行组合,最终平均分高于60分就🔘判定‘这是一只猫’。”
“那成功😦🃦率肯定很可怜。”库克教授耸耸肩,一脸的悲悯。