关于神经网络黑盒的显化(解析化)
对于科研工作者而言,虽然神经网络,在参数不是很多(比如三个)的情况下,我们能否通过大致了解解析式形式(类似于通解)的方式,确定解析式更明确的形式?
顶级科学家可以从大量数据的特征中找到其简单的规律,这种规律通常用一个(组)方程进行描述。那AI能否在学习大量数据的时候也引入一种解析化的倾向(机制),并在学习新领域的新数据时,找到与原解析式适用场景的相似模式,将适用范围外推,从而找到新场景中规律的解析表达,并尝试进行验证,这种思考方式(迁移学习)就更像人类的科学探索与研究了。之所以解析化,还是为了简化对规律的认识,便于进行更为本质而深刻的思考,也更容易将这种认识普遍化,从整体的角度看,可以提高认识自然的效率。
来自 豆瓣App
孩子气概的最新日记 · · · · · · ( 全部 )
热门话题 · · · · · · ( 去话题广场 )
- 端午吃什么238篇内容 · 7274次浏览
- 假期必备书影音清单169篇内容 · 1.0万次浏览
- 想做的事,别等“以后”1.0万+篇内容 · 361.7万次浏览
- 分享你的健康减肥法5041篇内容 · 584次浏览
- 重新养一遍自己,可真好啊1504篇内容 · 169.3万次浏览
- 你有哪些“终不似,少年游”的经历?2930篇内容 · 60.3万次浏览
- 有哪些非常醍醐灌顶的人文社科入门书籍?138篇内容 · 1899次浏览
- 第78届戛纳国际电影节281篇内容 · 125.1万次浏览
另外,神经网络在训练过程中,能否不仅仅靠其深度来把握数据的分层特征,而是有某种改变其连接方式的机制?其连接方式通常是输入与权重之积,再输入激活函数。这种方式能否由一种更贴近真实的解析形式来描述,从而把握住特征的同时减小网络的规模,比如层数和每层的维度。即训练过程不仅仅是训练各个连接的权重,还是一个连接方式高度解析化和结构重构的过程。