SQL basic
更新: 2019-12-13
sql server 会自动 trim end 哦
'Stooges' 和 'Stooges ' 是一样的,不管是查询还是 unique
这个是 sql 规范来的.
但是也有例外哦, 在 like 的时候 trailing spaces 是会考虑在内的哦
' stooges' 和 'stooges' 是不同的,sql 只无视 trailing spaces 而已, leading spaces 是在乎的
更新 : 2019-11-17
case sensitive and case insensitive
通常 sql 是不区分大小写的, 比如 where name = 'Abc' 和 where name = 'abc' 是一样的
那么如果我们想区分大小写需要些 collate
-- 查询级别
select * from Products where name = 'abc' COLLATE SQL_Latin1_General_CP1_CS_AS; -- 区分大小写
select * from Products where name = 'abc' COLLATE SQL_Latin1_General_CP1_CI_AS; -- 不区分大小写
-- column 级别
alter table Products alter column name nvarchar(64) collate SQL_Latin1_General_CP1_CS_AS; -- 区分大小写
alter table Products alter column name nvarchar(64) collate SQL_Latin1_General_CP1_CI_AS; -- 不区分大小写
更新: 2019-11-8
查出 table 的 foreign key
SELECT
object_name(parent_object_id) as [table],
object_name(referenced_object_id) as linkTo,
name,
is_disabled
FROM sys.foreign_keys
WHERE parent_object_id = object_id('Items')
把 store procedure 的 data read 进 table
declare @TempTable table
(
PK_NAME nvarchar(64) // 需要写全部 column
)
insert into @TempTable EXEC sp_fkeys @pktable_name = 'Countries', @pktable_owner = 'dbo';
select * from @TempTable;
留意哦,每一个 column 都要写上。
更新: 2019-09-22
store procedure
go
create procedure sp_getMember @inputValue nvarchar(max), @outputValue nvarchar(max) output
as
set @outputValue = 'www';
go declare @result nvarchar(max);
exec sp_getMember @inputValue = 'dada', @outputValue = @result output;
print(@result);
留意 input 和 output 的用法.
ef core 的调用
SqlParameter inputParam = new SqlParameter("@inputValue", SqlDbType.NVarChar, 300);
inputParam.Direction = ParameterDirection.Input;
inputParam.Value = "test"; SqlParameter outputParam = new SqlParameter("@outputValue ", SqlDbType.NVarChar, 300);
outputParam.Direction = ParameterDirection.Output; Db.Database.ExecuteSqlCommand("[sp_getMember] @inputValue, @outputValue output", inputParam, outputParam);
var returnValue = (string)outputParam.Value;
更新: 2019-08-03
rename table, column, key
use klc2;
EXEC sp_rename 'TableSettings', 'UserSettings'; -- rename table
EXEC sp_rename 'UserSettings.tableName', 'name', 'COLUMN'; -- rename column
EXEC sp_rename 'UserSettings.settingJson', 'json', 'COLUMN';
EXEC sp_rename 'dbo.PK_UserSettingsa', 'PK_UserSettings'; -- rename primary key
EXEC sp_rename 'dbo.FK_UserSettings_AspNetUsers_userIa', 'FK_UserSettings_AspNetUsers_userId'; -- rename foreign key SELECT name, SCHEMA_NAME(schema_id) AS schema_name, type_desc
FROM sys.objects
WHERE parent_object_id = (OBJECT_ID('UserSettings'))
AND type IN ('C','F', 'PK');
更新 : 2019-06-01
modify json
refer :
https://docs.microsoft.com/en-us/sql/t-sql/functions/json-modify-transact-sql?view=sql-server-2017
update klc2.dbo.Questions set audio = JSON_MODIFY(audio, '$.type', 'Audio');
mutiple JSON_MODIFY(JSON_MODIFY() ...) 做法是嵌套...
读取 array
declare @json nvarchar(max) =
N'{"monday":[],"tuesday":[14,15,16,17,18,19,20,21],"wednesday":[12,13,14,15,16,17,18,19,20,21],"thursday":[14,15,16,17,18,19,20,21],"friday":[10,11,12,13,14,15,16,17,18,19,20,21],"saturday":[9,10,11,12,13,14,15,16,17,18,19,20],"sunday":[]}'; select * into #dailyHour from openjson(@json);
while (select count(*) from #dailyHour) > 0
begin
declare @dayOfWeek nvarchar(max);
declare @hours nvarchar(max);
declare @startHour int;
declare @endHour int;
select top 1 @dayOfWeek = [key], @hours = value from #dailyHour; select top 1 @startHour = value from openjson(@hours) order by [key];
select top 1 @endHour = value from openjson(@hours) order by cast([key] as int) desc; -- 要 cast 哦
if(@hours != '[]')
begin
print(@dayOfWeek);
print(@startHour);
print(@endHour);
end
delete from #dailyHour where [key] = @dayOfWeek;
end
drop table #dailyHour;
orderby date nulls first
sql server 不支持 null first or last 的 语法, 需要用 case 来完成
entity 的写法是
orderby(n => n.time == null)
生成出来的语句大概是 CASE WHEN ([Extent1].[time] IS NULL) THEN cast(1 as bit) ELSE cast(0 as bit) END AS [C1],
原理就是在 order by 的时候动态创建一个 boolean column 先 orderby 它.
可惜 odata 并不支持这个方法, 可以用 compute column 来解决.
ALTER TABLE [dbo].[CalendarEvents] ADD haveTime AS CASE WHEN (time IS NULL) THEN cast(0 as bit) ELSE cast(1 as bit) END PERSISTED;
调用是 $orderby : "date, haveTime desc, time"
nvarchar(MAX) vs ntext
不要用 ntext 了, nvarchar(N) N 必须小于 4000, 如果 charater 有可能大于 4000 就放 MAX
max 的话 sql 会用类似 text 的方式去处理的.
index 需要 column 小于 900 bytes, nvachar 就是 450 字就 max 了. vachar 就 900咯.
Compute column
不能子表哦
PERSISTED 的话会在 insert, update 时同步 属于 reccalc on change 模式
没有PERSISTED 则属于 getter 模式
ALTER TABLE [dbo].[Exams] ADD mark AS (CAST(totalCorrectAnswer AS FLOAT) / totalQuestion * 100) PERSISTED;
sql transaction isolation level
脏读,重复读,幻读
default is read commited, 防止脏读, 意思是 transaction update row 时, 这个 row 是不允许读的,transaction 写时会锁
通常做 update,post,delete 时如果依赖其它数据, 我们就会选择使用更高级别的 Repeatable read
意思是我重复读一条依赖的数据, 它在 transaction 的过程中永远是同一个值, transaction 读时会锁.
不过呢 Repeatable read 只是锁 row, 如果你依赖 row count 那么可能你需要锁更大的范围, 那么就是 Serializable 了
锁越大就越容易出现死锁,读的效率也慢, 所以小心使用.
2019-06-18 补上细节
set transaction isolation level repeatable read;
set transaction isolation level serializable;
begin transaction tran1 select * from test where name = ''; commit
什么时候应该使用 repeat 或 serial 呢
就是当我们依赖一些数据作为验证的时候,比如你从数据库拿一个值来判断用户是否可以 insert 资料, 结果就在你检查的瞬间
数据被修改了,这就会导致你的判断错误,除了判断还有可能我们依赖数据来做计算,这样就可能会算错了.
所以这时候就可以使用 repeat read 这样就可以确保我们在执行完事情的时候,当下是正确的计算。
需要注意的是 repeat read 只是锁了一行. 没有人可以对那个 row 进行更新,但是这不代表你的数据不会被影响.
比如
select name from table where name = 'abc';
这是返回了 3 个数据. 你使用这 3 个数据做东西.
没有人可以修改这 3 个数据... 但是呢, 你的 where 却不安全.
如果其他人 insert ... (name) values ('abc') .. 你的算法又错了.
或者 update set name = 'abc' where id ...
所以如果你的 where 是 unique 的话就没事儿, 如果不是的话就要小心了
这时候要安全的话就要使用 serial
它可以阻止 insert 和 update ..
serial 要小心的用, where 的 column 最好是放上 index
比如
select name from table where name = 'abc';
拿到一行, id = 1, name = abc
如果 name 不是 index 的话, 那么整个表就锁掉了
update table set age = 11 where Id = 5
这句完全没有影响到你的 update 也无法 run ..
所以要加上 index 给 name
那么 sql 会变聪明, 上面那个 update 是可以运行的. 估计是通过 index 来判断.
死锁是这样发生的
a 锁表 table1
b 锁表 table1
a update 表 table1, 被 b 锁了, 等待
b update 表 table1 , 也被 a 锁了, 等待...
这样就锁死了 .
一旦死算, 第一个 update 的人赢.. 后面的就 error,这样就解锁了. sql 发现死锁是蛮快的.
总结就是 :
如果依赖数据来做计算, 验证等,那么就需要锁.
如果 where 的条件是 unique 比如 where id =.. where email =...
那么用 repeat read 就很安全了
如果不是..unique 那么尽量加上 index 在 where 的 column 让 sql 聪明一点.
这篇写的很完整,可以看看
https://www.cnblogs.com/edisonchou/p/6129717.html
check trans open
SELECT * FROM sys.sysprocesses WHERE open_tran = 1
unique with filter null
CREATE UNIQUE NONCLUSTERED INDEX[UNIQUE_Characters_Teacher_contactEmail] ON[dbo].[Characters]([Teacher_contactEmail] ASC) WHERE([Teacher_contactEmail] IS NOT NULL);
foreign relation cascade delete or set null
ALTER TABLE [dbo].[ExamDatas] DROP CONSTRAINT [FK_dbo.ExamDatas_dbo.Questions_questionId]; ALTER TABLE [dbo].[ExamDatas] WITH CHECK ADD CONSTRAINT [FK_dbo.ExamDatas_dbo.Questions_questionId] FOREIGN KEY([questionId]) REFERENCES [dbo].[Questions] ([Id]) ON DELETE SET NULL;
-- ON DELETE CASCADE;
check connection
exec sp_who
exec sp_who2
Or
SELECT
DB_NAME(dbid) as DBName,
COUNT(dbid) as NumberOfConnections,
loginame as LoginName
FROM
sys.sysprocesses
WHERE
dbid > 0
GROUP BY
dbid, loginame
;
reset auto increment
DBCC checkident ('Employees') //check current
DBCC checkident ('Employees', reseed, 0); //reset to 0 , next is 1
Function
从例子学习
drop function dbo.getWorkingDateCount; --getWorkingDateCount = functionName CREATE FUNCTION [dbo].[getWorkingDateCount]
(
--这3个是parameter, 名字和类型
@fromDate date,
@toDate date,
@publicHolidayStrList nvarchar(500)
)
RETURNS int --表明返回类型
AS
BEGIN
DECLARE @count INT = 0; --DECLARE 就是var
WHILE @fromDate <= @toDate --while 就是for loop
BEGIN
DECLARE @ipos INT = 0;
DECLARE @dateName nvarchar(50);
--赋值一定要写set在前面,
--CHARINDEX 是 indexOf
--CONVERT 是 datetime to string , 126 是一个sql对日期格式的代号 refer : https://msdn.microsoft.com/en-us/library/ms187928.aspx
SET @ipos = CHARINDEX(CONVERT(VARCHAR(10),@fromDate,126), @publicHolidayStrList);
--DATENAME weekday 返回星期几
SET @dateName = DATENAME(weekday, @fromDate);
IF @ipos = 0 and @dateName != 'Saturday' and @dateName !='Sunday'
BEGIN
SET @count = @count + 1;
END
SET @fromDate = DATEADD(day,1,@fromDate) --DATEADD = datetime.addDays()
END;
RETURN @count;
END select dbo.getWorkingDateCount('2015-11-01','2015-11-30','2015-11-07,2015-11-13') as 'date';
上面是一个调用来获取工作天数的函数
update 和 insert 顾虑并发
insert into DemoProducts (code)
select top 1 'mk100' from DemoColors
where DemoColors.ID = 5 and DemoColors.rowVersion = 'xxfx01tAA'; UPDATE p SET p.code = 'mk200' FROM DemoProducts p,DemoColors c WHERE p.ID = 5 and c.ID = 5 and c.rowVersion = '';
insert 之后拿 ID
INSERT [dbo].[DemoProducts]([code])
select 'x' from DemoColors
SELECT [ID]
FROM [dbo].[DemoProducts]
WHERE @@ROWCOUNT > 0 AND [ID] = scope_identity()
用 output 会更好,不止insert,update,delete也通用哦
INSERT DemoProducts (code)
OUTPUT inserted.code as ttc,inserted.ID
select 'newCode' from DemoProducts;
refer: https://msdn.microsoft.com/en-us/library/ms177564.aspx
Transaction 逻辑
当一个transaction开始后,如果有修改sql, 那么被修改的那一行row会被锁上,其它请求 get,set 涉及到那一行row都会阻塞,直到 tran 结束.
查看 database 目前有的 trigger, function, stored procedure 等
SELECT
DB_NAME() AS DataBaseName,
dbo.SysObjects.Name AS TriggerName,
dbo.sysComments.Text AS SqlContent
FROM
dbo.SysObjects INNER JOIN
dbo.sysComments ON
dbo.SysObjects.ID = dbo.sysComments.ID;
SQL basic的更多相关文章
- MVC LINQ to SQL: Basic Concepts and Features
http://www.codeproject.com/Articles/215712/LINQ-to-SQL-Basic-Concepts-and-Features
- Apache Spark 2.2.0 中文文档 - Spark SQL, DataFrames and Datasets Guide | ApacheCN
Spark SQL, DataFrames and Datasets Guide Overview SQL Datasets and DataFrames 开始入门 起始点: SparkSession ...
- Spark SQL数据源
[TOC] 背景 Spark SQL是Spark的一个模块,用于结构化数据的处理. ++++++++++++++ +++++++++++++++++++++ | SQL | | Dataset API ...
- [Spark SQL] SparkSession、DataFrame 和 DataSet 练习
本課主題 DataSet 实战 DataSet 实战 SparkSession 是 SparkSQL 的入口,然后可以基于 sparkSession 来获取或者是读取源数据来生存 DataFrameR ...
- 大数据技术之_19_Spark学习_03_Spark SQL 应用解析 + Spark SQL 概述、解析 、数据源、实战 + 执行 Spark SQL 查询 + JDBC/ODBC 服务器
第1章 Spark SQL 概述1.1 什么是 Spark SQL1.2 RDD vs DataFrames vs DataSet1.2.1 RDD1.2.2 DataFrame1.2.3 DataS ...
- 大数据技术之_19_Spark学习_03_Spark SQL 应用解析小结
========== Spark SQL ==========1.Spark SQL 是 Spark 的一个模块,可以和 RDD 进行混合编程.支持标准的数据源.可以集成和替代 Hive.可以提供 J ...
- Spark注册UDF函数,用于DataFrame DSL or SQL
import org.apache.spark.sql.SparkSession import org.apache.spark.sql.functions._ object Test2 { def ...
- spark第七篇:Spark SQL, DataFrame and Dataset Guide
预览 Spark SQL是用来处理结构化数据的Spark模块.有几种与Spark SQL进行交互的方式,包括SQL和Dataset API. 本指南中的所有例子都可以在spark-shell,pysp ...
- 3. Spark SQL解析
3.1 新的起始点SparkSession 在老的版本中,SparkSQL提供两种SQL查询起始点,一个叫SQLContext,用于Spark自己提供的SQL查询,一个叫HiveContext,用于连 ...
随机推荐
- 尚学堂 JAVA Day3 概念总结
java中的运算符 1.算术运算符 + - * / % Arithmetic operators + 运算符有三种身份 Additive Operator 1)加法:如 a + b; 2)连接:如 “ ...
- C++ STL之vector常用指令
只记载本人在ACM中常用的函数. vector,相当于动态数组,数组大小可变.声明vector以后,自动在内存中分配一块连续的内存空间进行数据存储. vector在内部进行插入.删除操作时间复杂度O( ...
- git init
git clone git@code.easyunion.net:516059158/cloud-basic-knowledge.git添加codes;git add .;git commit -m ...
- cmake编译错误:“No CMAKE_C_COMPILER could be found”的原因
发生此错误,原因在于,进行configure命令时,没有选择正确的编译器,比如电脑上安装的是VS2012,想编译位64位,选择了VS2012 X64,这样就会报错了,选择VS2012就对了,一样可以编 ...
- nav标签的作用
. <nav>用来将具有导航性质的链接划分在一起,使代码结构在语义化方面更加准确,同时对于屏幕阅读器等设备的支持也更好.一直以来,我们习惯于使用形如<div id="nav ...
- HDU1007 Quoit Design 【分治】
Quoit Design Time Limit: 10000/5000 MS (Java/Others) Memory Limit: 65536/32768 K (Java/Others) To ...
- N皇后问题--递归回溯
著名的N皇后问题,就是先按照行一行一行的找,先找第一行,第一行找到一列能满足条件,继续找下一行,如果下一行也找到一列能满足条件,继续找下一行,一次类推,最终找到解, 但是,如果找不到的话, 就说明上一 ...
- 01-资料管理器(Directory/DirectoryInfo操作文件夹类)
public partial class Form1 : Form { public Form1() { InitializeComponent(); } private void Form1_Loa ...
- share js 分享代码
(function(){ var $doc = $(document); var shareHandlers = { 'twitter': function(prop,shareUrl){ var D ...
- Struts2 框架验证
struts2框架验证(xml方式): * 首先要从页面中获取对应的标签name属性的值,在动作类action中声明同名的属性,提供get和set方法 * 创建一个xml格式验证文 ...