一种基于物理信息极限学习机的PDE求解方法
创始人
2024-04-15 22:14:10
0

**作者|**PINN山里娃,作者主页
**研究方向|**物理信息驱动深度学习 不确定性 人工智能 偏微分方程 极限学习机

该作者聚焦深度学习模型与物理信息结合前沿研究,提供了一系列AI for science研究进展报告及代码实现,旨在实现物理信息驱动深度学习方法入门到精通。
内嵌物理知识神经网络(PINN)入门及相关论文
深度学习求解微分方程系列一:PINN求解框架(Poisson 1d)
深度学习求解微分方程系列二:PINN求解burger方程正问题
深度学习求解微分方程系列三:PINN求解burger方程逆问题
深度学习求解微分方程系列四:基于自适应激活函数PINN求解burger方程逆问题
深度学习求解微分方程系列五:PINN求解Navier-Stokes方程正逆问题
一种基于物理信息极限学习机的PDE求解方法

近年来,物理信息驱动的深度学习方法用于科学计算问题受到了越来越多的关注,其中,physic informed neural network(PINN)在求解微分方程(PDE)正逆问题上展现出巨大的优势,但是并不适用于某些需要实时响应的应用。由此,下面将介绍一种基于物理信息极限学习机的PDE求解方法,用于线性微分方程的快速求解,能实现近实时高精度求解(秒级求解)。首先介绍PINN及极限学习机基本方法,其次介绍基于物理信息的极限学习方法,随后介绍求解问题与背景,最后展示基于Pytorch实现的算例结果。
优点:基于物理信息极限学习机的PDE求解方法能够毫秒级求解线性微分方程,而且该方法为无网格方法,可用于复杂形状系统。

1.问题背景

线性微分方程还是理论联系实践的重要渠道之一,**在物理、工程、力学、天文学、生物学、医学、经济学等诸多领域都有重要作用。**如电子计算机与无线电装置的计算问题可归为微分方程求解;弹道计算与飞机飞行中的稳定性研究可归为线性微分方程的求解。对于线性PDE可描述为

Lu=fλ(x,y),(x,y)∈ΩB[u(x,y)]=b(x,y),(x,y)∈∂Ω\begin{aligned} &L u=f_\lambda(x, y),(x, y) \in \Omega \\ &\mathcal{B}[u(x, y)]=b(x, y),(x, y) \in \partial \Omega \end{aligned}​Lu=fλ​(x,y),(x,y)∈ΩB[u(x,y)]=b(x,y),(x,y)∈∂Ω​
式中: LLL 为线性微分算子, BBB 为边界或初值条件,fλ(x,y)f_{\lambda}(x,y)fλ​(x,y) 为系统源项,λ\lambdaλ为物理参数,uuu为物理系统的解。

2.PINN及极限学习机简介

神经网络作为一种强大的信息处理工具在计算机视觉、生物医学、 油气工程领域得到广泛应用, 引发多领域技术变革。深度学习网络具有非常强的学习能力, 不仅能发现物理规律, 还能求解偏微分方程。近年来,基于深度学习的偏微分方程求解已是研究新热点。PINN是一种科学机器在传统数值领域的应用方法,能够用于解决与PDE相关的各种问题,包括方程求解、参数反演、模型发现、控制与优化等。随着神经网络的发展,极限学习机(ELM)由于其好的泛化性能以及极快的学习能力,在图像分类和回归问题上得到了非常大的。

2.1PINN方法求解逆问题

PINN的主要思想如图1,先构建一个输出结果为u^\hat{u}u^的神经网络,将其作为PDE解的代理模型,将PDE信息作为约束,编码到神经网络损失函数中进行训练。损失函数主要包括4部分:偏微分结构损失(PDE loss),边值条件损失(BC loss)、初值条件损失(IC loss)以及真实数据条件损失(Data loss)。
在这里插入图片描述

图1:PINN示意图

特别的,考虑下面这个的PDE问题,其中PDE的解u(x)u(x)u(x)在Ω⊂Rd\Omega \subset \mathbb{R}^{d}Ω⊂Rd定义,其中x=(x1,…,xd)\mathbf{x}=\left(x_{1}, \ldots, x_{d}\right)x=(x1​,…,xd​):
f(x;∂u∂x1,…,∂u∂xd;∂2u∂x1∂x1,…,∂2u∂x1∂xd)=0,x∈Ωf\left(\mathbf{x} ; \frac{\partial u}{\partial x_{1}}, \ldots, \frac{\partial u}{\partial x_{d}} ; \frac{\partial^{2} u}{\partial x_{1} \partial x_{1}}, \ldots, \frac{\partial^{2} u}{\partial x_{1} \partial x_{d}} \right)=0, \quad \mathbf{x} \in \Omegaf(x;∂x1​∂u​,…,∂xd​∂u​;∂x1​∂x1​∂2u​,…,∂x1​∂xd​∂2u​)=0,x∈Ω
同时,满足下面的边界
B(u,x)=0on ∂Ω\mathcal{B}(u, \mathbf{x})=0 \quad \text { on } \quad \partial \OmegaB(u,x)=0 on ∂Ω

PINN求解过程主要包括:

  • 第一步,首先定义D层全连接层的神经网络模型:
    NΘ:=LD∘σ∘LD−1∘σ∘⋯∘σ∘L1N_{\Theta}:=L_D \circ \sigma \circ L_{D-1} \circ \sigma \circ \cdots \circ \sigma \circ L_1NΘ​:=LD​∘σ∘LD−1​∘σ∘⋯∘σ∘L1​
    式中:
    L1(x):=W1x+b1,W1∈Rd1×d,b1∈Rd1Li(x):=Wix+bi,Wi∈Rdi×di−1,bi∈Rdi,∀i=2,3,⋯D−1,LD(x):=WDx+bD,WD∈RN×dD−1,bD∈RN.\begin{aligned} L_1(x) &:=W_1 x+b_1, \quad W_1 \in \mathbb{R}^{d_1 \times d}, b_1 \in \mathbb{R}^{d_1} \\ L_i(x) &:=W_i x+b_i, \quad W_i \in \mathbb{R}^{d_i \times d_{i-1}}, b_i \in \mathbb{R}^{d_i}, \forall i=2,3, \cdots D-1, \\ L_D(x) &:=W_D x+b_D, \quad W_D \in \mathbb{R}^{N \times d_{D-1}}, b_D \in \mathbb{R}^N . \end{aligned}L1​(x)Li​(x)LD​(x)​:=W1​x+b1​,W1​∈Rd1​×d,b1​∈Rd1​:=Wi​x+bi​,Wi​∈Rdi​×di−1​,bi​∈Rdi​,∀i=2,3,⋯D−1,:=WD​x+bD​,WD​∈RN×dD−1​,bD​∈RN.​
    以及 σ\sigmaσ 为激活函数, WWW 和 bbb 为权重和偏差参数。
  • 第二步,为了衡量神经网络u^\hat{u}u^和约束之间的差异,考虑损失函数定义:
    L(θ)=wfLPDE(θ;Tf)+wiLIC(θ;Ti)+wbLBC(θ,;Tb)+wdLData(θ,;Tdata)\mathcal{L}\left(\boldsymbol{\theta}\right)=w_{f} \mathcal{L}_{PDE}\left(\boldsymbol{\theta}; \mathcal{T}_{f}\right)+w_{i} \mathcal{L}_{IC}\left(\boldsymbol{\theta} ; \mathcal{T}_{i}\right)+w_{b} \mathcal{L}_{BC}\left(\boldsymbol{\theta},; \mathcal{T}_{b}\right)+w_{d} \mathcal{L}_{Data}\left(\boldsymbol{\theta},; \mathcal{T}_{data}\right)L(θ)=wf​LPDE​(θ;Tf​)+wi​LIC​(θ;Ti​)+wb​LBC​(θ,;Tb​)+wd​LData​(θ,;Tdata​)
    式中:
    LPDE(θ;Tf)=1∣Tf∣∑x∈Tf∥f(x;∂u^∂x1,…,∂u^∂xd;∂2u^∂x1∂x1,…,∂2u^∂x1∂xd)∥22LIC(θ;Ti)=1∣Ti∣∑x∈Ti∥u^(x)−u(x)∥22LBC(θ;Tb)=1∣Tb∣∑x∈Tb∥B(u^,x)∥22LData(θ;Tdata)=1∣Tdata∣∑x∈Tdata∥u^(x)−u(x)∥22\begin{aligned} \mathcal{L}_{PDE}\left(\boldsymbol{\theta} ; \mathcal{T}_{f}\right) &=\frac{1}{\left|\mathcal{T}_{f}\right|} \sum_{\mathbf{x} \in \mathcal{T}_{f}}\left\|f\left(\mathbf{x} ; \frac{\partial \hat{u}}{\partial x_{1}}, \ldots, \frac{\partial \hat{u}}{\partial x_{d}} ; \frac{\partial^{2} \hat{u}}{\partial x_{1} \partial x_{1}}, \ldots, \frac{\partial^{2} \hat{u}}{\partial x_{1} \partial x_{d}} \right)\right\|_{2}^{2} \\ \mathcal{L}_{IC}\left(\boldsymbol{\theta}; \mathcal{T}_{i}\right) &=\frac{1}{\left|\mathcal{T}_{i}\right|} \sum_{\mathbf{x} \in \mathcal{T}_{i}}\|\hat{u}(\mathbf{x})-u(\mathbf{x})\|_{2}^{2} \\ \mathcal{L}_{BC}\left(\boldsymbol{\theta}; \mathcal{T}_{b}\right) &=\frac{1}{\left|\mathcal{T}_{b}\right|} \sum_{\mathbf{x} \in \mathcal{T}_{b}}\|\mathcal{B}(\hat{u}, \mathbf{x})\|_{2}^{2}\\ \mathcal{L}_{Data}\left(\boldsymbol{\theta}; \mathcal{T}_{data}\right) &=\frac{1}{\left|\mathcal{T}_{data}\right|} \sum_{\mathbf{x} \in \mathcal{T}_{data}}\|\hat{u}(\mathbf{x})-u(\mathbf{x})\|_{2}^{2} \end{aligned}LPDE​(θ;Tf​)LIC​(θ;Ti​)LBC​(θ;Tb​)LData​(θ;Tdata​)​=∣Tf​∣1​x∈Tf​∑​∥∥∥∥​f(x;∂x1​∂u^​,…,∂xd​∂u^​;∂x1​∂x1​∂2u^​,…,∂x1​∂xd​∂2u^​)∥∥∥∥​22​=∣Ti​∣1​x∈Ti​∑​∥u^(x)−u(x)∥22​=∣Tb​∣1​x∈Tb​∑​∥B(u^,x)∥22​=∣Tdata​∣1​x∈Tdata​∑​∥u^(x)−u(x)∥22​​
    wfw_{f}wf​,wiw_{i}wi​、wbw_{b}wb​和wdw_{d}wd​是权重。Tf\mathcal{T}_{f}Tf​,Ti\mathcal{T}_{i}Ti​、Tb\mathcal{T}_{b}Tb​和Tdata\mathcal{T}_{data}Tdata​表示来自PDE,初值、边值以及真值的residual points。这里的Tf⊂Ω\mathcal{T}_{f} \subset \OmegaTf​⊂Ω是一组预定义的点来衡量神经网络输出u^\hat{u}u^与PDE的匹配程度。
  • 最后,利用梯度优化算法最小化损失函数,直到找到满足预测精度的网络参数 KaTeX parse error: Undefined control sequence: \theat at position 1: \̲t̲h̲e̲a̲t̲^{*}。

值得注意的是,对于逆问题,即方程中的某些参数未知。若只知道PDE方程及边界条件,PDE参数未知,该逆问题为非定问题,所以必须要知道其他信息,如部分观测点uuu 的值。在这种情况下,PINN做法可将方程中的参数作为未知变量,加到训练器中进行优化,损失函数包括Data loss。

2.2 ELM方法求解

考虑如图2的ELM,它由 n 个神经元的单层前馈神经网络构成,假设输入为x=(x1,⋯,xj)T\mathbf{x}=(x_{1}, \cdots,x_{j})^{T}x=(x1​,⋯,xj​)T,输出为一个神经元yyy ,ELM主要思想是,输入层权值和偏差是预先设定的随机值,并且在整个训练过程中都是固定的,通过训练学习得到输出层权值。
在这里插入图片描述

图2:极限学习机示意图

ELM求解方法
首先,确定前馈神经网络结构,初始化输入权重和偏差(初始化后固定)、输出层权重(待求解)。输入输出的映射可以表示为:
G(x)ν=y\mathbf{G} (\mathbf{x}) \nu=\mathbf{y}G(x)ν=y
式中:G=[g(x⃗1),g(x⃗2),…,g(x⃗j)]T\boldsymbol{G}=\left[g\left(\vec{x}_1\right), g\left(\vec{x}_2\right), \ldots, g\left(\vec{x}_j\right)\right]^TG=[g(x1​),g(x2​),…,g(xj​)]T,G(xk)=[φ(aj1Txk+b1),φ(aj2Txk+b2),…,φ(ajnTxk+bn)]{G}\left({x}_k\right)=\left[\varphi\left({a}_{j1}^T {x}_k+b_1\right), \varphi\left({a}_{j2}^T {x}_k+b_2\right), \ldots, \varphi\left({a}_{jn}^T {x}_k+b_{n}\right)\right]G(xk​)=[φ(aj1T​xk​+b1​),φ(aj2T​xk​+b2​),…,φ(ajnT​xk​+bn​)]
然后通过求解最小二乘法方法求得输出层权重
ν=pin⁡v(G)x\nu=\operatorname{pin} v(\boldsymbol{G}) \mathbf{x}ν=pinv(G)x

3.基于物理信息的极限学习机方法

基于物理信息极限学习机方法作为PINN的快速版本,在求解偏微分方程方面受到了广泛关注。其关键特征是用随机值固定输入层权值,并对输出层权值使用Moore-Penrose广义逆求解。
步骤:

  • 首先,确定神经网络结构,单层神经网络(nnn个神经元),随机初始化输入层权值和偏差并固定,随机初始化输出层权值。假设
    χ=[x,y,1]T,α=[α1,α2,⋯,αn]T,β=[β1,β2,⋯,βn]T,γ=[γ1,γ2,⋯,γn]T\chi=[x, y, 1]^T, \boldsymbol{\alpha}=\left[\alpha_1, \alpha_2, \cdots, \alpha_n\right]^T, \boldsymbol{\beta}=\left[\beta_1, \beta_2, \cdots, \beta_n\right]^T,\gamma=\left[\gamma_1, \gamma_2, \cdots, \gamma_n\right]^Tχ=[x,y,1]T,α=[α1​,α2​,⋯,αn​]T,β=[β1​,β2​,⋯,βn​]T,γ=[γ1​,γ2​,⋯,γn​]T
    式中: α,β\alpha, \betaα,β和γ\gammaγ为输出层参数,通过随机初始化后固定。网络中使用非线性激活函数φ=tanh⁡\varphi=\tanhφ=tanh,输出层参数为ω=[ω1,ω2,⋯,ωn]T\boldsymbol{\omega}=\left[\omega_1, \omega_2, \cdots, \omega_n\right]^Tω=[ω1​,ω2​,⋯,ωn​]T,第kkk个神经元的输出可表示为 φ(zk)\varphi\left(z_k\right)φ(zk​),zk=[αk,βk,γk]χz_k=\left[\alpha_k, \beta_k, \gamma_k\right] \chizk​=[αk​,βk​,γk​]χ,神经网络输出可表示为
    u^(χ)=φ(z)ω\hat{u}(\chi)=\varphi(z) \omegau^(χ)=φ(z)ω
  • 其次,将物理信息编码到极限学习网络中,由于极限学习机网络的特殊性,线性PDE方程和边界条件可描述为
    ξf=Lφ(z)ω−fλ(x,y)=0ξb=B[φ(z)ω]−b(x,y)=0\begin{aligned} &\boldsymbol{\xi}_f=L \varphi(\boldsymbol{z}) \boldsymbol{\omega}-f_\lambda(x, y)=0 \\ &\boldsymbol{\xi}_b=\mathcal{B}[\varphi(\boldsymbol{z}) \boldsymbol{\omega}]-b(x, y)=0 \end{aligned}​ξf​=Lφ(z)ω−fλ​(x,y)=0ξb​=B[φ(z)ω]−b(x,y)=0​
    通过上式,可得到
    Hω=Y\mathbf{H} \boldsymbol{\omega}=\mathbf{Y}Hω=Y
    式中:HH\mathbf{H} \mathbf{H}HH和Y\mathbf{Y}Y是由LLL和B\mathcal{B}B所确定的matrix。
    然后,求解网络权重参数,利用Moore-Penrose广义逆求解可得
    w∗=pin⁡v(H)Y\boldsymbol{w}^{*}=\operatorname{pin} v(\boldsymbol{H}) \mathbf{Y}w∗=pinv(H)Y
  • 最后,得到PDE的解
    u^(χ)=φ(z)w∗\hat{u}(\chi)=\varphi(z) \boldsymbol{w}^{*}u^(χ)=φ(z)w∗

4.算例展示

4.1 2D Poisson Equation

uxx+uyy=(16x2+64y2−12)e−(2x2+4y2),(x,y)∈Ωu_{x x}+u_{y y}=\left(16 x^2+64 y^2-12\right) e^{-\left(2 x^2+4 y^2\right)},(x, y) \in \Omegauxx​+uyy​=(16x2+64y2−12)e−(2x2+4y2),(x,y)∈Ω
式中:Ω={(x,y)∣x=0.55ρ(θ)cos⁡(θ),y=0.75ρ(θ)sin⁡(θ)}\Omega=\{(x, y) \mid x=0.55 \rho(\theta) \cos (\theta), y=0.75 \rho(\theta) \sin (\theta)\}Ω={(x,y)∣x=0.55ρ(θ)cos(θ),y=0.75ρ(θ)sin(θ)},ρ(θ)=1+cos⁡(θ)sin⁡(4θ),0≤θ≤2π\rho(\theta)=1+\cos (\theta) \sin (4 \theta), 0 \leq \theta \leq 2 \piρ(θ)=1+cos(θ)sin(4θ),0≤θ≤2π
方程真实解为:
u=12+e−(2x2+4y2)u=\frac{1}{2}+e^{-\left(2 x^2+4 y^2\right)}u=21​+e−(2x2+4y2)

4.2 结果

基于物理信息的极限学习机预测结果如图3所示,可看出,预测结果能方程好接近真解,同时计算时间为0.85s。
在这里插入图片描述

图3:基于物理信息的极限学习机预测

PINN预测结果如图4所示,PINN计算时间为144s,同时预测精度比基于物理信息的极限学习机差两个数量级。
请添加图片描述

图4:PINN预测结果

相关内容

热门资讯

不能访问光猫的的管理页面 光猫是现代家庭宽带网络的重要组成部分,它可以提供高速稳定的网络连接。但是,有时候我们会遇到不能访问光...
【NI Multisim 14...   目录 序言 一、工具栏 🍊1.“标准”工具栏 🍊 2.视图工具...
Android|无法访问或保存... 这个问题可能是由于权限设置不正确导致的。您需要在应用程序清单文件中添加以下代码来请求适当的权限:此外...
银河麒麟V10SP1高级服务器... 银河麒麟高级服务器操作系统简介: 银河麒麟高级服务器操作系统V10是针对企业级关键业务...
北信源内网安全管理卸载 北信源内网安全管理是一款网络安全管理软件,主要用于保护内网安全。在日常使用过程中,卸载该软件是一种常...
安卓文字转语音tts没有声音 安卓文字转语音TTS没有声音的问题在应用中比较常见,通常是由于一些设置或者代码逻辑问题导致的。本文将...
APK正在安装,但应用程序列表... 这个问题可能是由于以下原因导致的:应用程序安装的APK文件可能存在问题。设备上已经存在同名的应用程序...
​ToDesk 远程工具安装及... 目录 前言 ToDesk 优势 ToDesk 下载安装 ToDesk 功能展示 文件传输 设备链接 ...
AWSECS:访问外部网络时出... 如果您在AWS ECS中部署了应用程序,并且该应用程序需要访问外部网络,但是无法正常访问,可能是因为...
报告实验.pdfbase.tt... 这个错误通常是由于找不到字体文件或者文件路径不正确导致的。以下是一些解决方法:确认字体文件是否存在:...