别的产业界大牛,无论微软还是谷歌,好歹有一水儿的顶级大学研究所支撑。顾诚虽然也是搞互联网的,但他的技术含量是最低的那🍽🍦一型。
就像🅆后世📈bat三巨头当中,腾云🞼🙠是技术含量最低的一个。
“你提到了🚝神经网络算法这个拟研究方向,但我看不出来这和你的产业有什么结合。让我们多伦多大学的教授去做那种看不到学术前景的花里胡哨东西,有违本校的学风。”
库克教授也不管自己只是个所🞶😩🄂长🁡,直接就盖棺定论了。
所谓“神经网络式算法”🏹🞽,库克教授十几年前就有涉猎,相比于80年代以来🛗🜣的其他“np穷尽理论”而言,其🀰最大的特点是“没有运算核心”。
用人体来举例,人作👣为一个生物个体而言,是有中枢神经的绝大多数机体行动,都是大脑控制肢体,眼口耳鼻手足感知到了外部信号之后先要通过反射弧传递到大脑(部分最低级的反射,至少也要到延髓/脊髓处理)等大脑作出处理指令之后,手足才会作出反应。
但是如果把大脑单独作为一个独立个体解剖开来看,大脑内部上千亿个神经元是平等的。并不存在“某一小撮神经元高于其他周边神经元、从而在处理信息时先由这一撮神经元预处理、预处理完之后再🄈交给下一撮神经元处理”这样的先后顺序。
(神经网络当然还有其他很多基础特点,这里仅仅讨论和“遗传算法/退火算法”★的主要区别,所以不多⚊🏫赘述了。否则能水几万字🜩🄰🁉,大家还看不懂。)
当年“神经网络”的概念🏹🞽被提出时,就是为了探讨一种让电脑高效处理类似于“找到礼堂里到底有没有我认识的人”问题的新方法:如果可以有多个电脑,自然随机地分配任务,🙈🈘⚍并行从多个点开始用就近算法寻找,那么自然可以在“单核cpu”性能比较弱的情况下,通过堆砌cpu数量加快问题的解决速度。
但这个概念并没有“节约计算资源”,因为理论上它只是把“1台电脑10小🛗🜣时工作量”变成了“10台电脑1小时的工作量”而已。而且这种最原始的“神经网络”也依然没法解决那些“似是而非”的模糊问题他们只能回答“有我认识的人/没有我认识的人”这种非此即彼的问题。
库克点名了在这个领域让顾诚对其应用模型说🕇🚒出个🁿子丑寅卯来,顾诚自然🂉不能避战。
“我拜读过辛顿教授对于神经网络的最新模型假说,卷积神经网络,以及与之配套的学习型算法。我认为这个东西可以和♴🌧互联网的自动识别/索引工具相结合。至于具体的应用场景么……那就属于商业机密了,恕我无可🄃🞃奉告。”
“卷积神经网络的新用法?”
史蒂芬.库克教授一👣愣,但很快冷静下来,他可不是一个概念就能忽悠住的。
“看来,顾先生要论述的重点🞶😩🄂,就在于‘卷积🕇🚒’上面了?”
“没错,如果没有‘卷积’,仅有‘神经网络’,我们依然没法讨论近似于人脑判断的模糊问题。”顾诚一副成竹在胸的样子🔮,似乎对对方的反应早有预判。
他😟打开电脑,接上🏛🚱投影仪,屏幕上🞼🙠出现了一张猫的图片。
“我用图上这只猫举例子尽管这只猫一只耳朵竖着一只耳朵折了,眼珠瞳孔也有点不正常,尾巴还特别短,毛色肮🝿脏还和照片的背景色非常接近,但我作为一个人类,还是一眼就认出了这确实是一只猫。
现在,我用我根据辛顿教授的阀值思想编写的自学程序,用机器对这只猫是否是猫进👣行初次预判。在这个算法里,我们预构了30个组合特征量,比如‘猫眼’、‘猫耳’‘猫毛’、‘猫尾’……然后用三十个神经元单位的处理资源,分别针对每一个组合特征量进行预判,然后分别给出结果。
在这三十个神经元单位内部,我们再根据‘本图猫眼与本神经元见过的猫眼’之间的像素相似度作出判断,给出一个积值,从🔮而得到‘这有85%概率是一只猫眼’或者‘有70%概率是一只猫耳’之类的参考量。最后,把这30个组合特征量按照默认1:1的权重进行组合,最终平均分高于60分就判定‘这是一只猫’。”
“那成功率肯定很可怜。”库克教授耸🏑🙖耸肩,🕇🚒一脸的悲悯。
“当然很可怜,因为我的实验才开始呢做到这一步,并不是要让机器判断正确,🈧🀰🀠而是在机器判断完之后,让人眼再复查一遍。如果机器和人的判断结🙣🌊果一致,那么就给目前的特征量分组方式和每个特征量的权重比例数组加1分。
然后,再判断下一次。如果还对,再加一分。直到判断错了,然后就自动对现有权重比例数组作出调整:比如,此前判断正确的两次‘平均分60分’的结果中,‘猫眼’得分分别是75和80分,而‘猫耳’得分是45和40分。而判断错误的那一次‘平均分60分’的结果中,‘猫眼’是50分‘猫耳’是70分。那么,我🄀🝨🍨们就可以得出一个结论:决定猫是否长得像猫的所有特征变量中,‘猫眼’是比‘猫耳’更关键的变量,在计算综合分的时候应该提升其权重。