DQN及其局限小记

Q学习的思想非常巧妙,DQN也非常巧妙。

通过神经网络,将Q学习原本的表做成一个神经网络,表格是离散的,而神经网络则不是,加以算力的夹持,似乎可以胜任任何工作。

但实际并非如此,DQN只能依赖随机值不断试错来调整自身,但是对较为复杂的情况来说,探索与利用之间的平衡真的很难达到,这涉及到太多的超参数。

可能本质上,DQN还是缺乏一个能够理解环境的引擎,一个大脑,他有了不断拟合的能力,却没有迅速学习和外化的能力。

困难重重。

迭代的神经网络

今天花了很长时间,从最底层开始,写好了感知机和有一个隐藏层的神经网络。

非常感谢Andrew Ng的课程。

有一个隐藏层的神经网路迭代的很慢,现在还在跑。

看着这东西的cost越来越小,一遍一遍休整自己的参数,他的每个细节我都知道,除了偏导数那里不太熟。

还挺有趣的。

今天还算没白费。

不想做炼丹师,所以继续在底层学习吧,还有很多东西可以做。

——Z

如何理解简单——《简约至上》小记

我已经很久没有写博客了,倒不是因为其他的原因,只是因为我对自己写博客的动机产生了质疑,甚至,我对所有分享的动机产生了质疑。关于:“我们为什么要在社交平台上分享自己”,我苦苦思索,却也无法给自己一个满意的答案,所以很久没有在任何社交平台上有活动了。

之前我有在一篇文章上读到马斯克的“第一原理”观点,印象非常深,第一原理的意思大概是这样的:

我们运用「第一原理思维」而不是「比较思维」去思考问题是非常重要的。我们在生活中总是倾向于比较——别人已经做过了或者正在做这件事情,我们就也去做。这样的结果是只能产生细小的迭代发展。「第一原理」的思考方式是用物理学的角度看待世界的方法,也就是说一层层剥开事物的......

demo10:盒模型:你真的理解margin和padding吗

在浏览器渲染页面的时候,每个元素都会被渲染为一个矩形。

我们可以用CSS来指定任何元素的任何方向的边距和边框大小,浏览器会根据CSS的写法,来确定矩形的外边距(margin)/边框(border)/内边距(padding)以及内容宽高(content area)。

content area是元素内容部分真正占用的空间大小。

内边距padding指的是,元素和边框之间的距离。

可以通过CSS的border属性设置元素边框宽度。

外边距margin用来指定元素外所占区域,在margin区域虽然没有本元素的内容,其他元素也无法显示在这片区域——除非其他元素通过特殊方式脱离了文档流。margin通常用......