【跟吧主申个精啊】……我是研究图形图像学的程序猿,曾经用过BP神经网络,还有一些浅层网络比如SVM或者信息熵决策树之类的。对深度学习也有一定了解。同时也是个围棋爱好者。
深度学习的前身就是BP神经网络。它是一种模拟人脑的神经结构,用数据结构节点作为神经元,用一个权值来模拟神经元轴突和树突膜电位电阻之类关系的网络。
原理和人脑是差不多的。当输入一个数据时,比如,底层的神经元经过计算,把结果送到上一层的神经元,然后上一层的再算完送给上上层……最后最上层的输出结果。如果结果不对的话,那么再由顶层计算误差,修正下一层,然后下一层再修复误差下下层……这样反复训练若干次以后,就会越来越逼近正确的结果。
然而这样训练出的神经网络并不好用,直到后来生物学家在大脑的研究上有了突破。深度学习就是在此基础上建立起来的,它引入了脑科学和认知科学的一些成果。
当你吃了一盘菜的时候,首先你会尝到酸甜苦辣咸,这些味道的不同组合模式会组合成食材,比如金枪鱼、大米的概念,然后食材的概念组合成菜肴的概念,比如金枪鱼寿司,各种菜肴的概念组合成菜系的概念,比如日本菜。这样一层概念,就可以看成一个是个神经网络功能区。深度网络实际上比这复杂,也没这么形象。
但是就是依靠跟人类的大脑差不多的神经网络算法,现在你给电脑尝一道菜,它不仅能用传感器分析化学物质,而且还理解(注意是【理解】这个词)这是日本菜啦!这个概念的形成方式和你大脑的机制是一模一样的,我们叫他归纳和演绎!用来训练围棋也是一样的,而且它可以获得比你更多的样本(比如你多一亿倍的样本),比你更大的计算量(比你快一亿倍)!
所以说这个计算机的棋感并不是程序员人为写出来的。程序员写的只有这种神经网络的机制,至于学到了什么要看给计算机训练了什么,就像"人之初,性本善,性相近,习相远"一样的道理。谷歌围棋可以用来下围棋,但是这个算法同样可以用来图形识别,开汽车,以及目前非创造性的绝大多数的人类劳动。
另外机器学习的算法可以用来发现知识,比如摩尔发现了电子芯片每18个月,速度快一倍价格,下降一半,这个叫摩尔定律,是intel的创始人之一摩尔在看各种繁复的报表时灵机一动发现的。通过大量数据,让计算机去挖掘其中的规律的话,这将成为一种常态,比如计算机能发现“星期四时啤酒和尿布一起卖能卖得更好”这样的东西,甚至是隐藏在LHC海量数据中的物理学公式。
深度学习的前身就是BP神经网络。它是一种模拟人脑的神经结构,用数据结构节点作为神经元,用一个权值来模拟神经元轴突和树突膜电位电阻之类关系的网络。
原理和人脑是差不多的。当输入一个数据时,比如,底层的神经元经过计算,把结果送到上一层的神经元,然后上一层的再算完送给上上层……最后最上层的输出结果。如果结果不对的话,那么再由顶层计算误差,修正下一层,然后下一层再修复误差下下层……这样反复训练若干次以后,就会越来越逼近正确的结果。
然而这样训练出的神经网络并不好用,直到后来生物学家在大脑的研究上有了突破。深度学习就是在此基础上建立起来的,它引入了脑科学和认知科学的一些成果。
当你吃了一盘菜的时候,首先你会尝到酸甜苦辣咸,这些味道的不同组合模式会组合成食材,比如金枪鱼、大米的概念,然后食材的概念组合成菜肴的概念,比如金枪鱼寿司,各种菜肴的概念组合成菜系的概念,比如日本菜。这样一层概念,就可以看成一个是个神经网络功能区。深度网络实际上比这复杂,也没这么形象。
但是就是依靠跟人类的大脑差不多的神经网络算法,现在你给电脑尝一道菜,它不仅能用传感器分析化学物质,而且还理解(注意是【理解】这个词)这是日本菜啦!这个概念的形成方式和你大脑的机制是一模一样的,我们叫他归纳和演绎!用来训练围棋也是一样的,而且它可以获得比你更多的样本(比如你多一亿倍的样本),比你更大的计算量(比你快一亿倍)!
所以说这个计算机的棋感并不是程序员人为写出来的。程序员写的只有这种神经网络的机制,至于学到了什么要看给计算机训练了什么,就像"人之初,性本善,性相近,习相远"一样的道理。谷歌围棋可以用来下围棋,但是这个算法同样可以用来图形识别,开汽车,以及目前非创造性的绝大多数的人类劳动。
另外机器学习的算法可以用来发现知识,比如摩尔发现了电子芯片每18个月,速度快一倍价格,下降一半,这个叫摩尔定律,是intel的创始人之一摩尔在看各种繁复的报表时灵机一动发现的。通过大量数据,让计算机去挖掘其中的规律的话,这将成为一种常态,比如计算机能发现“星期四时啤酒和尿布一起卖能卖得更好”这样的东西,甚至是隐藏在LHC海量数据中的物理学公式。