深度学习热潮下的人工智能
从13年的算法突破到亚马逊的AWS,为大数据下的机器学习提供可能和平台。从去年的TensorFlow、AlphaGo到今年的Alexa,无论是大众和媒体的目光,或是产业界和资本,都在疯狂地追逐着“深度学习”这一概念。
90年代因为计算成本瓶颈被抛弃的ANN随着硬件的突飞猛进及分布式运算的普及,被re-brand成deep learning,似乎成了万灵药。
你可以随处听见各种学CS、EE、数学、统计、物理等专业的毕业生讨论CNN、RNN、LSTM或是W2V。一时间,似乎不再需要专业知识,所有的问题都可以通过大量标注好的数据,简单粗暴地学习出一个ANN模型就可以解决世界上各种难题。尽管这个模型可能复杂到必须放在远程服务器上分布式运算。
作为NLP的从业人员,我觉得这股热潮背后的一个很大误区,就是忽略了专业知识的重要性。做NLP需要语言学知识,并非是简单标注几个PoS tag或者字符的相对位置就可以解决的。同理,语音识别需要语音学知识,图像识别需要计算机视觉知识。不同于训练一个AlphaGo,围棋有明确而简单的逻辑规则任何人都可以启发式思考并监督学习过程,大多数产业上的训练目标,对于不具备专业背景知识的人来说,规则和目标都是模糊的。
而当今大多数startup中从事机器学习相关工作的工程师,并无交叉领域的专业知识,而公司或部门也无意聘请相关领域专家(或者说缺少交叉领域的人才)。
谷歌、特斯拉、Uber的无人驾驶项目相继受挫,甚至连stop sign的识别到现在都无法完全解决,可见深度学习并非万灵药。因为自然环境下的物件识别和驾驶逻辑,并不像棋盘游戏那样规则明确。往往在耗费大量资源学习出一个黑箱子模型后,改进都无从下手。至于拿不同模型加权投票的方法,其实和买彩票没啥区别。
就算能够学习出一个足够高效安全的模型,出于模型的复杂度对计算的要求,势必只能把计算放到云端。而对于汽车来说,这样的解决方案是机器不安全的。
我想,在这波资本的热潮散去之后,这些领域还是需要具备更深入交叉领域专业知识的工程师,而非几个挂着“NLP工程师”“计算机视觉工程师”之类头衔的,只会不断在RNN和LSTM之间切换,不断尝试不同cost方程和不同梯度参数的软件工程师,来参与这些项目。而在下一次硬件性能(主要是计算和存储能力))突飞猛进地爆发之前,很多需要本地计算能力的服务短期内无法通过机器学习来实现。
NLP不止有统计派,还有符号派。机器学习也不只有ANN,还有SVM、HMM、贝叶斯网络、决策树、HITS、Pagerank、K-means、KNN、Winnow等一大票算法。要知道90年代ANN还一度被SVM几乎完全取代呢。机器学习不光需要计算成本,大量标注好的数据,对于某些产业来说无疑是天堑。三十年河东三十年河西。资本追逐概念热潮;而对于学科和生涯选择,还是要更加谨慎。