|
我们训练一个单一的神经网络来逼近整个空间(t,x,ν,α,a,b)上u(t,x;p)的解∈ [0, 1] ×[0, 1] ×[10-2, 10-1] × [10-2, 1] × [-1, 1] × [-1, 1]. 我们使用了一个比前面的数值例子更大的网络(6层,每层200个单元)。图5比较了深度学习解决方案与几个不同问题设置的精确解决方案p。解决方案非常接近;在某些情况下,这两种解决方案可以明显区分。深度学习算法能够准确捕捉冲击层和边界层。图6显示了不同时间t和不同选择的ν的深度学习算法的准确性。当ν变小时,解变陡。它还显示了激波层随着时间的推移而形成。等高线图(7)报告了b和ν的不同选择的深度学习解决方案的绝对误差。图5:深度学习解决方案显示为红色。通过有限差分发现的“精确解”为蓝色。在时间t=1时报告溶液。解决方案非常接近;在一些情况下,这两种解决方案显然是不可区分的。逆时针顺序的问题设置为(ν,α,a,b)=(0.01,0.95,0.9,-0.9), (0.02, 0.95, 0.9, -0.9), (0.01, 0.95, -0.95,0.95),(0.02,0.9,0.9,0.8),(0.01,0.75,0.9,0.1)和(0.09,0.95,0.5- 0.5).7 PDE的神经网络近似定理让Lerror J(f)衡量神经网络f满足微分算子、边界条件和初始条件的程度。将CNA定义为具有n个隐藏单元的神经网络类,并将fnbea定义为具有n个隐藏单元的神经网络,使J(f)最小化。
|