SQL知识点】的更多相关文章

提供性能: .服务器往往具有强大的计算能力和速度..避免把大量的数据下载到客户端,减少网络上的传输量. 第一章 T-SQL 语句 1.1数据类型 文本型 -- CHAR 定长型 <=8000字节 Varchar 变长型 <=8000字节 Text 大文本 <=2G NCHAR 定长型 <=4000字节 NVarchar 变长型 <=4000字节 SQL2005提供了NVarChar(MAX)<=2G NText 大文本 <=2G char(10)和 nchar(1…
越来越发现自己的sql方面的知识的欠缺,所以只能放低姿态一点一点的学了 一 游标和charIndex的使用. 游标我一直没用过,以前只是在同事们写的存储过程里见过,但是一直没看明白(可是我就是比较笨吧).今天在写一个东西的时候用到了需要用到游标来处理,于是我就先比葫芦画瓢的写了一个,供以后参考吧. )) declare my_cursor cursor local FOR ),AnsID)) AS tb ) , ) open my_cursor fetch my_cursor into @id…
使用数据库的好处: 1.安全 2.支持多用户操作 3.误删数据比较容易恢复 4.存储较大容量的数据MySql: MYsql AB公司开发的数据库, 现在归属Oracle公司,开元的关系型数据库RDBMS:关系型数据库(Relationship Database Managerment System) 1.数据是以表的形式存储 2.row,代表一条数据,实体 3.column,代表一个字段,属性 4.多张表构成一个库一.DDL数据定义语言 create drop alter二.DML数据操控语言…
这是我整理出来的SQL大纲图.…
关系型数据库:MySql非关系型数据库:Redis(以键值对的方式) SQL分几类: DDL:数据定义语言:create.alter.drop.truncate DML:数据操作语言:insert.delete.update DQL:数据查询语言:select from where DCL:数据控制语言:grant revoke DBA 查询所有的数据库:show databases (1)数据库的CRUD: 1.创建数据库:create database demo; 2.删除数据库: drop…
order by就是排序. group by就是分组. WHERE语句在GROUP BY语句之前:SQL会在分组之前计算WHERE语句.    HAVING语句在GROUP BY语句之后:SQL会在分组之后计算HAVING语句.   on与where有什么区别,两个表连接时用on,在使用left  jion时,on和where条件的区别如下: 1.on条件是在生成临时表时使用的条件,它不管on中的条件是否为真,都会返回左边表中的记录. 2.where条件是在临时表生成好后,再对临时表进行过滤的条…
一. 数据库简介和创建1. 系统数据库在安装好SQL SERVER后,系统会自动安装5个用于维护系统正常运行的系统数据库: (1)master:记录了SQL SERVER实例的所有系统级消息,包括实例范围的元数据(如登录帐号).端点.链接服务器和系统配置设置. (2)msdb:供SQL SERVER 代理服务调度报警和作业以及记录操作员的使用,保存关于调度报警.作业.操作员等信息.(备份还原时) (3)model:SQL SERVER 实例上创建的所有数据库的模板. (4)tempdb:临时数据…
sql语言的分类DDL:create drop alter DML:insert delete update DCL:rollback grant revoke commit 概要,主外键,视图,索引,语句规范 右键点击可以下载原图(6.25MB)…
1 聚集索引和非聚集索引的区别 聚集索引是指 表中存储的数据按照索引的顺序来存储,数据检索效率高,但是对数据更新影响较大:非聚集索引是数据存储在一个地方,索引存储在另一个地方:索引带有指针,指向数据的存储位置,非聚集索引检索效率较低,但是对数据更新影响较小: 2 select count(*)  select count(1)和select count(column)的区别 count(*)和count(1) 都包括对null的计数 两者返回的结果基本是一致的:count(column)则不包括…
Spark SQL概述 1.什么是Spark SQL Spark SQL是Spark用于结构化数据(structured data)处理的Spark模块. 与基本的Spark RDD API不同,Spark SQL的抽象数据类型为Spark提供了关于数据结构和正在执行的计算的更多信息. 在内部,Spark SQL使用这些额外的信息去做一些额外的优化,有多种方式与Spark SQL进行交互,比如: SQL和DatasetAPI. 当计算结果的时候,使用的是相同的执行引擎,不依赖你正在使用哪种API…