平凡主丛上的Yang-Mills理论】的更多相关文章

本文是复旦大学由丁青教授的暑期课程“Yang-Mills理论的几何及其应用”所作笔记,会有少许修正. 所需基础: 多元微积分学 微分方程(常微分方程,数学物理方程) 曲线曲面论(初等微分几何) 以下是章节总览(未完): 第一讲 欧氏空间上的外微分形式理论 第二讲 简单的李群,李代数及双不变度量 第三讲 $\mathbb{R}^4$上平凡主丛的联络,曲率和Yang-Mills泛函 第四讲 Yang-Mills 方程和Maxwell方程 第五讲 自对偶的Yang-Mills方程及Polyakov和t…
一. $\mathbb{R}^4$或$\mathbb{R}^n$上平凡主丛的联络与曲率$\newcommand{\R}{\mathbb{R}}$ 回忆切丛$T\R^n\cong \R^n\times\R^n$(若$U\subset M$有坐标系$(x_1,x_2,\ldots,x_n)$,那么$U$上的切丛即为$TU=U\times \R^n$) 在$\R^n$上的主丛是指$P=\R^n\times G$(所以我们称之为平凡主丛,这里就是把切空间$\R^n$换成了李群$G$,而$G$称为主丛$P…
$\newcommand{\R}{\mathbb{R}}$以下我们考虑的是$\R^4$或者$S^4$上的Yang-Mills泛函,它们是共形不变的. 一.自对偶和反自对偶 我们寻找$\R^4$或$S^4$上的一个重要问题:Yang-Mills泛函在何时取得最小值?于是我们考虑$\R^4$上微分形式$*:\wedge^2 \R^4\to \wedge^2 \R^4$,我们有$**=1$.那么定义$F_A^+=\frac{1}{2}(F_A+*F_A)$以及$F_A^-=\frac{1}{2}(F_…
一.变分原理 变分原理始于17世纪的速降问题,也就是连接两点的曲线在有重力的情况下,让初速度为0的一小球最快地通过? 这个问题由伯努力给出解答,他的方法非常巧妙,而最后开创了一个学科——变分学.他假设$y=y(x)$是最终所得曲线(假设我们在一个二维空间中,$x$为横坐标,$y$为纵坐标),在$x$时的速率为$v$,那么下滑$ds$所用时间为$ds/v$.由于能量守恒,也就是$\frac{1}{2}mv^2=mg y(x)$.那么$v=\sqrt{2g y(x)}$,而$ds=\sqrt{1+\…
4213: 贪吃蛇 Time Limit: 5 Sec  Memory Limit: 64 MBSubmit: 58  Solved: 24[Submit][Status][Discuss] Description  最近lwher迷上了贪吃蛇游戏,在玩了几天却从未占满全地图的情况下,他不得不承认自己是一个弱菜,只能改去开发一款更弱的贪吃蛇游戏. 在开发的过程中,lwher脑洞大开,搞了一个多条蛇的模式.但由于这种模式太难操作,于是他只好改变游戏的玩法,稍微变化一下游戏目标. 新的游戏是这样的:…
Multipart/form-data POST文件上传详解 理论 简单的HTTP POST 大家通过HTTP向服务器发送POST请求提交数据,都是通过form表单提交的,代码如下: <form method="post"action="http://w.sohu.com" > <inputtype="text" name="txt1"> <inputtype="text" n…
首先,我们要祝贺小李下出第78手的“神之一手”,这一手堪称前无古人后无来者,尤其是结合了阿尔法狗自暴自弃的表现.小李说过他的失败并不是人类的失败,同样,小李的胜利也只是属于他一人的胜利. 然而人类在围棋领域会不会最终被机器所击败这一问题,在旧摩尔定律失效的情况下还不应急着下定论,看完这篇文章后有助于形成你自己的观点. 首先我们看到这张图.有人一定会觉得奇怪了:为什么左边的是英国国旗呢?Google难道不是美国的公司吗? 原因很简单,alphago是英国的deepmind公司研发的.2014年1月…
什么是ABC理论 ABC理论(ABC Theory of Emotion)是由美国心理学家埃利斯创建的.就是认为激发事件A(activating event 的第一个英文字母)只是引发情绪和行为后果C(consequence的第一个英文字母)的间接原因,而引起C的直接原因则是个体对激发事件A的认知和评价而产生的信念B(belief的第一个英文字母),即人的消极情绪和行为障碍结果(C),不是由于某一激发事件(A)直接引发的,而是由于经受这一事件的个体对它不正确的认知和评价所产生的错误信念(B)所直…
Multipart/form-data POST文件上传详解 理论 简单的HTTP POST 大家通过HTTP向服务器发送POST请求提交数据,都是通过form表单提交的,代码如下: <form method="post"action="http://w.sohu.com" > <inputtype="text" name="txt1"> <inputtype="text" n…
背景 [作者:DeepLearningStack,阿里巴巴算法工程师,开源TensorFlow Contributor] 在分布式训练时,提高计算通信占比是提高计算加速比的有效手段,当网络通信优化到一定程度时,只有通过增加每个worker上的batch size来提升计算量,进而提高计算通信占比.然而一直以来Deep Learning模型在训练时对Batch Size的选择都是异常敏感的,通常的经验是Large Batch Size会使收敛性变差,而相对小一点的Batch Size才能收敛的更好…