- 间断的看了两年多的机器学习 /深度学习 /人工智能相关的东西,最后潜意识里觉得我要找的是神经网络,并且最近通过大脑的几百亿神经元看不同的教程,感觉理论上好像了解了,说下看法,如果不对的希望大佬能指正,如果有什么交流的地方就更好了.....
- 神经网络就是输入->权重×输入然后+++->结果 这样
- 如果想要纠正权重就需要计算误差,然后梯度下降慢慢增减权重.反向传播(这个应该是最简单的?或者是最入门的?)计算梯度(比如误差),基本上就是用到偏导数,复合函数求导,推理过程比较繁琐,但是最后得出来的公式应该是通用的?
- 目前暂时还没有找框架实现,但是推测框架的封装应该就是把这个梯度的计算公式直接内置了,然后我们就不需要再向上面那样一步一步推导了?
- 每层的输出都是权重乘输入,是不是相当于假设关系是线性的,然后通过多层和激活函数模拟一个近似的公式?
那么大胆的猜测是不是也有假设不是线性的....比如 xw 这种或者 logwx?
- 偏置再教程里没看到详细解析,大概的意思是防止再原点上不好算?
- 有手写反向传播计算梯度的例子吗?因为看的只是推导,感觉还少一个像高数上那种一个定理后面跟个例子让我学习的.........还是一般情况下大家都是只了解下推理过程,最后计算机计算都是调方法?
- matlab,tensorflow,pytorh 等软件 /框架 /包是不是同一种神经网络(就是前面说的那种最简单的先正向计算结果,再反向计算梯度),实现原理是一样的?只不过其他的功能封装的有所不同?
- 前馈神经网络是我前面说的输出=权重乘输入,没有计算梯度进行修改权重的方式,为啥还叫
神经网络?个人理解应该要有纠正的环节,难道是权重手动瞎蒙吗? - 如果理论没啥大问题,要开始实战,有没有大佬有什么推荐看的东西?
