我曾经有幸和国内在该领域非常领先的中科院半导体所的鲁华祥教授探讨过,国内目前可以实现的是在 100 这一数量级的类神经元处理器的制造,继续的下一步发展还存在非常大的困难。或许在这一个方面我们和国际一流最领先的技术还存在一定的差距,但我们都存在一个相当共同的问题,那就是目前的人工神经网络的构建还都是采用了一种神经元模型,即 Golgi I 型神经元,而对于数量更多的 Golgi II 型神经元细胞和胶质细胞几乎无人考虑。更不用说在微观层面上对于神经活动表征得非常好的离子通道模型,尽管目前已经有相当多的研究关注与通过阻变式存储器(RRAM)的特性模拟突触可塑性,可依旧还存在很大的困难。
说了这么多负面的情况,难道在人工神经网络的研究就毫无意义?又或者说完全是徒劳的么?
当然不是这样,从研究算法的角度来看,对于人脑行为的一些抽象模拟很好的解决了机器学习领域中的一些问题。继续拿 deep learning 来举例,这一概念的提出是源于 1981 的诺贝尔生理学或医学奖,神经生物学家 David Hubel 和 Torsten Wiesel 发现了视觉系统的信息处理机制是分层进行的。deep learning 就是在机器视觉处理上取得了突出的成功。从生物学中提取知识,再将其抽象转化为算法模型应用到计算机的人工智能领域,这样的深入研究会让计算机在处理更多非逻辑非数值,或者说是“更感性更直觉”的问题上不断进步。