筛法 埃筛 埃拉托斯特尼筛法的缩写,EraSieve (这个英文其实是为了方便做函数名不要再写shake了) 它的核心思想其实是当确认了一个数是质数以后,把它的所有倍数打上标记说这玩意不是质数.那现在的问题就只剩下怎么确定一个数是不是质数了. 原理 我们先这样想,如果一个数 \(n\)​​ 是合数,那么一定可以表示为 \(a*b\)​​ , 其中 \(a.b\)​​ 都不能等于 \(1\)​​ 和 \(n\)​​ ,那这样的话 \(a.b\)​​ 都一定会是小于 \(n\)​​ 的,也就是说如果…
link:http://acm.hdu.edu.cn/showproblem.php?pid=4497 如果G%L != 0,说明一定无解. 把K = G / L质数分解,G / L = p1^t1 * p2^t2 * p3^t3 * ……:同时 x/= L, y/= L, z/=L,不影响结果. 假设三个数字的质数分解是: x = p1^i1 * p2^i2 * p3^i3 * …… y = p1^j1 * p2^j2 * p3^j3 * …… z = p1^k1 * p2^k2 * p3^k…
gcd及扩展gcd可以用来求两个数的最大公因数,扩展gcd甚至可以用来求一次不定方程ax+by=c的解   辗转相除法与gcd 假设有两个数a与b,现在要求a与b的最大公因数,我们可以设 a=b*q+p 如果a是与b的最大公约数是gcd(a,b),那么b与p的最大公约数也是gcd(a,b) 即 gcd(a,b)=gcd(b,p)=gcd(b,a%b),然后我们令a=b,b=a%b,然后再进行以上步骤 以此类推,a与b的值会越来越小,直到某一时刻a变成了b的倍数,使得a%b=0,但是后来赋值使得a…
我死了,今天看课看过头了,忘了发作业,被典明批评 而且化学作业还是瞎搞的,直接就发了 我觉得我已经提前死亡了,现在不死亡,开学也会的 函数 挺容易的,有很多语言之间重合的部分 注意 在使用某些数学函数以前,要使用这一语句 import math 使用随机数前,得调用另一个 import random \(import\)的作用是调用一个库 例如之前的 import keyword 和\(C++\)里的 #include<bits/stdc++.h> 类似 而且在使用库中的函数时,需要加&quo…
基本上只是整理了一下框架,具体的学习给出了个人认为比较好的博客的链接. PART1 数论部分 最大公约数 对于正整数x,y,最大的能同时整除它们的数称为最大公约数 常用的:\(lcm(x,y)=xy\gcd(x,y)\) 裴蜀定理 定理:对于方程\(ax+by=c\),其存在解的充要条件是\(gcd(a,b)|c\),可以拓展到n元的方程. 证明的话应该自己yy一下还是很容易(显然可得),不过要是想要严谨证明还是去百度吧qwq 扩展欧几里得定理 首先我们都知道\(gcd(a,b)=gcd(b,a…
初等数论学习笔记 I:同余相关. 初等数论学习笔记 II:分解质因数. 1. 数论函数 本篇笔记所有内容均与数论函数相关.因此充分了解各种数论函数的名称,定义,符号和性质是必要的. 1.1 相关定义 数论函数:定义域为正整数的函数称为 数论函数.因其在所有正整数处均有定义,故可视作数列.OI 中常见的数论函数的陪域(即可能的取值范围)为整数. 加性函数:若对于任意 \(a, b\in \mathbb{N}_+\) 且 \(a\perp b\) 均有 \(f(ab) = f(a) + f(b)\)…
Canvas 第五章 数学.物理和运动学习笔记让人映像深刻的运动,需要我们不只是简单的知道如何移动对象,还需要知道怎么按用户期望看到的方式去移动它们.这些需要基于数学知识的基本算法和物理学作用.基于点和矢量的简单运动提供了一个基础,现在可以去创建些例如碰墙弹回和别一个有点摩擦的混合.之后,我们将回过来讲讲非直线式运动.例如:圆.螺旋型和复杂的贝塞尔曲线的.我们还将涉及影响运动的重力.最后,我们将以讨论缓动和如何使用它来做好基于数学的运动结束本章. 移动一根直线 作为最简单的运动,水平上线的移动一…
一个数学不好的菜鸡的快速沃尔什变换(FWT)学习笔记 曾经某个下午我以为我会了FWT,结果现在一丁点也想不起来了--看来"学"完新东西不经常做题不写博客,就白学了 = = 我没啥智商 ,网上的FWT博客我大多看不懂,下面这篇博客是留给我我再次忘记FWT时看的,所以像我一样的没智商选手应该也能看懂!有智商选手更能看懂咯! (写得非常匆忙,如有任何错误请在评论区指正!TAT) 什么是FWT FWT是用来快速做位运算卷积的.位运算卷积是什么?给出两个数组\(A\)和\(B\)(长度相等且是2…
tensorflow学习笔记(3)前置数学知识 首先是神经元的模型 接下来是激励函数 神经网络的复杂度计算 层数:隐藏层+输出层 总参数=总的w+b 下图为2层 如下图 w为3*4+4个   b为4*2+2 接下来是损失函数 主流的有均分误差,交叉熵,以及自定义 这里贴上课程里面的代码 # -*- coding: utf-8 -*- """ Created on Sat May 26 18:42:08 2018 @author: Administrator "&qu…
GCD and LCM Time Limit: 20 Sec Memory Limit: 256 MB 题目连接 http://acm.hdu.edu.cn/showproblem.php?pid=4497 Description Given two positive integers G and L, could you tell me how many solutions of (x, y, z) there are, satisfying that gcd(x, y, z) = G and…