当物理遇上人工智能...

发布日期: 2022-10-07 17:27 来源: 网络阅读量:9160   
当物理遇上人工智能...

本文将从物理学的角度介绍物理信息神经网络,从物理学到人工智能。

让我们从这里迈出第一步:

我们知道物理世界是如何运作的。利用科学的方法,我们可以提出一个假设,解释一个特定的现象是如何发生的,然后设计一个可控的实验,通过实验数据来证实或者证伪这个假设。

可以说,物理学与自然进化的过程密切相关。我想起了一位教授,他在大学里用下面这句话开始了他的报告:

赫拉说:“万物皆动。”我对此深信不疑。但是怎么锻炼呢?

这是物理学试图回答的问题。“万物”是如何运动的?

人们用一个特定的方程——众所周知的微分方程来描述万物运动的方式。我们先来试着理解一下什么是微分方程。

1.物理学和微分方程

“微分”描述的是与减法相关的一类东西。

1.1导数

函数的导数在物理学中有特殊的意义。

例如,速度代表空间对时间的导数。让我们考虑下面这个实验:一个物体沿着一维直线运动。

源作者

也就是说,蓝球是沿着X轴运动的。通常,我们将初始点设置为0。当这个球移动时,它的位置会随着时间而变化。假设这个位置随时间变化的图像如下:

源作者

所以这个运动可以更清楚地描述:

A.在时间0和时间5之间,位置从0变化到9:球向前移动。

B.从时间5到15,位置没有变化:球静止不动。

C.时间15到17,位置9到3:球回移。

D.时间17-47,位置3-6:球又前进了。

球何时以及如何改变位置是否有明确的量化?连位置变化都一清二楚。其实这就是速度的信息。我们用下面的表达式来描述它:

等式

好像有点复杂。但实际上速度只是两个非常接近的力矩所对应的位置变化除以两个力矩之差(h),所以我们用微分方程来描述。换句话说,速度是由时间间隔归一化的位置的瞬时变化。

如果在某一时刻出现持仓急剧增加,说明其导数是一个非常大的正数;位置不变时,导数为零;位置减小,导数为负。

在上面的例子中,各段的位置变化是线性的,也就是说,时间段0-5、5-15、15-17、17-47的速度是恒定的。

以t=0到t=5为例。对于每个时刻t,位置的瞬时变化是9/5。上述功能在其他时期也可以用同样的意思来理解。

1.2数值解

上面的例子很简单。让我们考虑下面的例子:

源作者

这样的轨迹很难建模,也没有解析的方法计算导数:你只能用数值计算——用公式给出所有时间点的导数。对了,我想你已经做好了面对残酷现实的充分准备:

在现实世界中,所有的微分方程都是用数值软件求解的。

然而,数值解可能需要数千万次迭代。而且求解微分方程需要先进的方法,比如著名的龙格-库塔法,这种方法经常被集成到非常复杂的软件中(比如POGO用于有限元法)。这些软件:

高计算成本

高经济成本

需要专业知识

高时间成本

1.3不适定问题

而上述问题甚至还不是最糟糕的。可悲的是,会有不舒服的情况。我给你举个例子。

例如,要求解决x和y的问题:

这不是很简单吗?

x+y=4

那么x+2y=x+y+y=8。

4+y=8

得到y=4

x=0

方程组的解为= (0,4),问题是适定的。因为满足这个条件的解是唯一的,也就是上面得到的解。

但是下面的问题就不同了:

两个方程其实是一样的!虽然= (0,4)仍然可以作为解,但是(1,3)也可以。这个方程组实际上有无穷多个解。这个问题是一个不适定问题。对于这样一个确定的问题,不止有一个解(实际上有无穷多个解)。

如果是为了解决以下问题:

等式

)。

2.人工智能和神经网络

现在来说说人工智能。

这句话可以简单介绍一下人工智能:

人工智能算法可以在没有特定程序的情况下执行特定的任务。

没有数学和明确的训练,自动驾驶汽车也可以在任何人走到汽车前面时刹车,因为它经过了数百万人的“训练”。

准确地说,所有的人工智能算法都依赖于损失函数。

这个特定的函数用来表示算法的目标值和输出值的差值,需要优化达到最小值。

给定一个有特点的房子,我们希望预测它的成本。这是一个从输入空间到连续空间的回归问题。

源作者

如果预测价格为13万,实际值为16万,平均绝对误差MAE定义为:

在这种情况下,它是30k。

这一系列的预测成本,那么全局损失函数将看起来像这样:

函数损失取决于模型的一系列参数w。函数的损失越低,模型建立得越好。

所以损失函数会不断优化,某种意义上来说越低越好。参数将不断迭代以最小化损失函数。

3.AI+物理学=物理信息神经网络

如果你看到这里:

你应该得到掌声。

你可能会想:人工智能和微分方程(物理学)有什么关系?

在回答这个问题之前,我们需要知道另一个概念——正则化。

3.1正规化

但是会有一个问题。也许这个解决方案在训练集中是最好的,但它不适合测试集。这时,最佳值只是局部最佳。

更深入地解释一下:

生成两个参数,您在以下空间中寻找解决方案:

源作者

通过在训练集中应用的损失函数获得的损失值L接近于0。

如果将该参数组合应用于测试集,损失函数变得非常大。说明损失函数的定义是不准确的。事实上,在这个问题中,真正的最优解如下:

源作者

那么如何通过避开红色标注的错误点来获得最佳优势呢?

源作者

如果算法只在绿圈里“看”就好了,这样就不会掉进错误的红圈陷阱。

这就是正则化——修改损失函数,使其空间解受到限制,从而更有可能解决全局最优而不是局部最优。

3.2物理信息神经网络=正则化!

还记得上面方程表示的反演问题吗?一些学者正在试图解决这个问题。

一开始,当一些特定位置的位移已知时,他们希望在算法的未知区域内插值U得到v,也就是说,给定新的t,y,x,就可以得到相应的新位移,从而得到新的速度分布。

原始文件

关于这个方程的解有很多争议,因为这个问题是不适定的,也就是说,即使人们找到了解,也不能确定它是否唯一。而且,还有很多物理上的限制无法解决。

他们希望通过限制位移来产生位移,以满足波函数方程,并结合损失函数:

满足:

的值应该尽可能接近0。

这是什么意思?简而言之,它代表了一个正规化过程:

他们通过限制损失函数的范围来帮助算法找到最优解。

神经网络是如何获得“物理信息”的?只是用微分方程正则化。

4.结论

在文章的最后,我想说:

信息神经网络只是一个通过微分方程正则化损失函数的神经网络。

经过几分钟的阅读,这篇文章可以总结如下:

损失是什么?

什么是正规化?

什么是微分方程?

物理信息是什么?

希望你对物理信息神经网络有一定的了解~

声明:免责声明:此文内容为本网站转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。