需求和思路

在一般的小项目或者一个小软件,例如客户端之类的小程序中,可能会需要数据的持久化.但是使用一般的数据库(Mysql)之类的不合适.使用sqlite3这种嵌入式的是个较好的方法,但是Go语言中sqlite3的库是C语言的,Cgo不支持跨平台编译.正是由于这种需求,才想到使用json格式将数据直接保存在文件中.

具体的思路是怎么样呢? 在Go语言中如果要将数据转化成json格式的话,有两种格式 struct 和 map. 如果同时需要增删查改功能的话,将map作为中间格式是比较合适的.接下来我们就来实现它.

查询操作

这种操作的实现比较简单,直接将文件中的数据读取出来,使用json库反序列化就可以了. 代码如下 :

type Product struct {
Name string `json:"name"`
Num int `json:"num"`
} func findAll() {
ps := make([]Product, 0) data, err := ioutil.ReadFile("./index.json")
if err != nil {
log.Fatal(err)
} // 这里参数要指定为变量的地址
err = json.Unmarshal(data, &ps)
if err != nil {
log.Fatal(err)
} fmt.Println(ps)
}

添加操作

添加的实现实在查询的基础上的,我们需要先查询文件中的数据库,并转化为map格式,再将struct也转化为map格式(这里要使用反射),合并map,json序列化,最后保存在文件中.代码如下:

func create() {
fields := make([]map[string]interface{}, 0) p1 := &Product{
Name: "Blog",
Num: 2,
} _, _ = json.Marshal(p1)
// 读取文件中的数据,保存为map格式
data, _ := ioutil.ReadFile("./index.json")
err := json.Unmarshal(data, &fields)
if err != nil {
log.Fatal(err)
} // 使用反射将struct转化为map
tp := reflect.TypeOf(p1).Elem()
vp := reflect.ValueOf(p1).Elem()
field := make(map[string]interface{}, 0)
for i := 0; i < tp.NumField(); i++ {
field1 := tp.Field(i)
field2 := vp.Field(i)
key := field1.Tag.Get("json")
field[key] = field2.Interface()
}
// 合并map
fields = append(fields, field) // 写入文件
out, _ := json.Marshal(fields)
_ = ioutil.WriteFile("./index.json", out, 0755)
}

条件查询

思路: 将struct转化为map,根据输入的条件查询.查询的结果转化为struct.代码如下:

func FindOne() {
product := &Product{} p1 := &Product{
Name: "John",
Num: 23,
} // 使用反射将struct转化为map
tp := reflect.TypeOf(p1).Elem()
vp := reflect.ValueOf(p1).Elem()
field := make(map[string]interface{}, 0)
for i := 0; i < tp.NumField(); i++ {
field1 := tp.Field(i)
field2 := vp.Field(i)
key := field1.Tag.Get("json")
switch field2.Kind() {
case reflect.Int:
field[key] = float64(field2.Interface().(int))
case reflect.Int8:
field[key] = float64(field2.Interface().(int8))
case reflect.Int16:
field[key] = float64(field2.Interface().(int16))
case reflect.Int32:
field[key] = float64(field2.Interface().(int32))
case reflect.Int64:
field[key] = float64(field2.Interface().(int64))
case reflect.Uint:
field[key] = float64(field2.Interface().(uint))
case reflect.Uint8:
field[key] = float64(field2.Interface().(uint8))
case reflect.Uint16:
field[key] = float64(field2.Interface().(uint16))
case reflect.Uint32:
field[key] = float64(field2.Interface().(uint32))
case reflect.Uint64:
field[key] = float64(field2.Interface().(uint64))
case reflect.Float32:
field[key] = float64(field2.Interface().(float32))
case reflect.Float64:
field[key] = field2.Interface()
default:
field[key] = field2.Interface()
}
} _, _ = json.Marshal(p1)
// 读取文件中的数据,保存为map格式
// 数据转化为map时,数值类型的统一变成float64
data, _ := ioutil.ReadFile("./index.json")
fields := make([]map[string]interface{}, 0)
err := json.Unmarshal(data, &fields)
if err != nil {
log.Fatal(err)
} // 查询的条件
columns := []string{"name", "num"}
length := len(columns)
for _, item := range fields {
for i := 0; i < length; i++ {
// 这里的比较需要改进
if item[columns[i]] != field[columns[i]] {
break
}
if i == length-1 {
field = item
goto OVER
}
}
}
OVER:
fmt.Println(field) out, _ := json.Marshal(field)
_ = json.Unmarshal(out, &product) fmt.Println(product)
}

修改操作

修改操作在查询操作的基础上实现, 修改操作需要有一个id值,能确定元素的唯一性.代码如下:

func Update() {
p1 := &Product{
Id: "2bbec87025968879c3c9682abe3bf730",
Name: "John_e",
Num: 100,
} // 使用反射将struct转化为map
tp := reflect.TypeOf(p1).Elem()
vp := reflect.ValueOf(p1).Elem()
field := make(map[string]interface{}, 0)
for i := 0; i < tp.NumField(); i++ {
field1 := tp.Field(i)
field2 := vp.Field(i)
key := field1.Tag.Get("json")
switch field2.Kind() {
case reflect.Int:
field[key] = float64(field2.Interface().(int))
case reflect.Int8:
field[key] = float64(field2.Interface().(int8))
case reflect.Int16:
field[key] = float64(field2.Interface().(int16))
case reflect.Int32:
field[key] = float64(field2.Interface().(int32))
case reflect.Int64:
field[key] = float64(field2.Interface().(int64))
case reflect.Uint:
field[key] = float64(field2.Interface().(uint))
case reflect.Uint8:
field[key] = float64(field2.Interface().(uint8))
case reflect.Uint16:
field[key] = float64(field2.Interface().(uint16))
case reflect.Uint32:
field[key] = float64(field2.Interface().(uint32))
case reflect.Uint64:
field[key] = float64(field2.Interface().(uint64))
case reflect.Float32:
field[key] = float64(field2.Interface().(float32))
case reflect.Float64:
field[key] = field2.Interface()
default:
field[key] = field2.Interface()
}
} _, _ = json.Marshal(p1)
// 读取文件中的数据,保存为map格式
// 数据转化为map时,数值类型的统一变成float64
data, _ := ioutil.ReadFile("./index.json")
fields := make([]map[string]interface{}, 0)
err := json.Unmarshal(data, &fields)
if err != nil {
log.Fatal(err)
} // 修改的条件
columns := []string{"name", "num"}
for _, v := range fields {
if v["_id"] == field["_id"] {
for _, col := range columns {
v[col] = field[col]
}
field = v
}
} out, _ := json.MarshalIndent(fields, "", " ")
_ = ioutil.WriteFile("./index.json", out, 0755)
}

删除操作

最后就是删除操作了,这个比较思路简单,输入唯一的id值,删除对应的字段,再保存到文件就可以了.代码如下:

func Delete() {
p1 := &Product{
Id: "db43fa2d4f69cddce7494941cb36032b",
Name: "John_e",
Num: 100,
} _, _ = json.Marshal(p1)
// 读取文件中的数据,保存为map格式
// 数据转化为map时,数值类型的统一变成float64
data, _ := ioutil.ReadFile("./index.json")
fields := make([]map[string]interface{}, 0)
err := json.Unmarshal(data, &fields)
if err != nil {
log.Fatal(err)
} length := len(fields)
for index, field := range fields {
if field["_id"] == p1.Id {
if index == length - 1 {
fields = fields[0:index]
} else {
fields = append(fields[0:index], fields[index+1:]...)
}
}
} out, _ := json.MarshalIndent(fields, "", " ")
_ = ioutil.WriteFile("./index.json", out, 0755)
}

完整版

最后在附上完整版代码:

package store

import (
"bytes"
"crypto/md5"
"encoding/json"
"errors"
"fmt"
"io/ioutil"
"os"
"path/filepath"
"reflect"
"strings"
"time"
) type Store struct {
Dir string
} func NewStore(dir string) (*Store, error) { // .开头的为相对路径,补全为全路径
if strings.HasPrefix(dir, ".") {
pwd, _ := os.Getwd()
dir = filepath.Join(pwd, dir)
}
store := &Store{Dir: dir} st, err := os.Stat(dir)
if err != nil {
err = os.Mkdir(dir, 0755)
if err != nil {
return nil, err
}
} else if st != nil && !st.IsDir() {
return nil, errors.New("file already exists")
} return store, nil
} // 创建与结构体对应的json文件
func (s *Store) Sync(values ...interface{}) error {
for _, v := range values {
tb := parseTn(v)
if tb == "" {
return errors.New("does not find store")
}
_path := filepath.Join(s.Dir, tb)
_, err := os.Stat(_path)
if err != nil {
_ = ioutil.WriteFile(_path, []byte("[]"), 0755)
}
}
return nil
} // 删除所有
func (s *Store) Destroy() error {
return os.RemoveAll(s.Dir)
} func (s *Store) FindAll(v interface{}) error { _path, err := s.before(v)
if err != nil {
return err
} out, err := s.readAll(_path)
if err != nil {
return err
}
err = json.Unmarshal(out, &v)
return err
} func (s *Store) FindOne(v interface{}, columns ...string) (interface{}, error) { _path, err := s.before(v)
if err != nil {
return nil, err
} data, err := s.readAll(_path)
if err != nil {
return nil, err
} fields := make([]map[string]interface{}, 0)
err = json.Unmarshal(data, &fields)
if err != nil {
return nil, err
} m := structToMap(v)
length := len(columns)
for _, item := range fields {
for i := 0; i < length; i++ {
// TODO 这里的比较需要改进
if item[columns[i]] != m[columns[i]] {
break
}
if i == length-1 {
m = item
goto OVER
}
}
}
OVER: err = mapToStruct(m, &v)
if err != nil {
return nil, err
} return v, nil
} func (s *Store) Create(v interface{}) error { _path, err := s.before(v)
if err != nil {
return err
} data, err := s.readAll(_path)
if err != nil {
return err
} fields := make([]map[string]interface{}, 0)
err = json.Unmarshal(data, &fields)
if err != nil {
return err
} m := structToMap(v)
m["_id"] = randId() fields = append(fields, m) err = s.writeAll(_path, fields)
if err != nil {
return err
} err = mapToStruct(m, v)
if err != nil {
return err
} return nil
} func (s *Store) Update(v interface{}, columns ...string) error { _path, err := s.before(v)
if err != nil {
return err
} data, err := s.readAll(_path)
if err != nil {
return err
} fields := make([]map[string]interface{}, 0)
err = json.Unmarshal(data, &fields)
if err != nil {
return err
} m := structToMap(v)
for _, v := range fields {
if v["_id"] == m["_id"] {
for _, col := range columns {
v[col] = m[col]
}
m = v
}
} err = s.writeAll(_path, fields)
if err != nil {
return err
} return nil
} func (s *Store) Delete(v interface{}) error { _path, err := s.before(v)
if err != nil {
return err
} data, err := s.readAll(_path)
if err != nil {
return err
} fields := make([]map[string]interface{}, 0)
err = json.Unmarshal(data, &fields)
if err != nil {
return err
} m := structToMap(v)
length := len(fields)
for index, field := range fields {
if field["_id"] == m["_id"] {
if index == length-1 {
fields = fields[0:index]
} else {
fields = append(fields[0:index], fields[index+1:]...)
}
}
} err = s.writeAll(_path, fields)
if err != nil {
return err
} return nil
} func (s *Store) Clean(v interface{}) error {
_path, err := s.before(v)
if err != nil {
return err
} return os.Remove(_path)
} func (s *Store) readAll(file string) ([]byte, error) {
out, err := ioutil.ReadFile(file)
if err != nil {
return nil, err
}
return out, nil
} func (s *Store) writeAll(file string, v interface{}) error {
out, err := json.MarshalIndent(v, "", " ")
if err != nil {
return err
} err = ioutil.WriteFile(file, out, 0755)
if err != nil {
return err
} return nil
} func (s *Store) before(v interface{}) (string, error) {
tb := parseTn(v)
if tb == "" {
return "", errors.New("invalid table name")
} _path := filepath.Join(s.Dir, tb)
_, err := os.Stat(_path)
if err != nil {
return "", err
} return _path, nil
} func structToMap(v interface{}) map[string]interface{} {
tp := reflect.TypeOf(v).Elem()
vp := reflect.ValueOf(v).Elem()
field := make(map[string]interface{}, 0)
for i := 0; i < tp.NumField(); i++ {
field1 := tp.Field(i)
field2 := vp.Field(i)
key := field1.Tag.Get("json")
field[key] = field2.Interface()
switch field2.Kind() {
case reflect.Int:
field[key] = float64(field2.Interface().(int))
case reflect.Int8:
field[key] = float64(field2.Interface().(int8))
case reflect.Int16:
field[key] = float64(field2.Interface().(int16))
case reflect.Int32:
field[key] = float64(field2.Interface().(int32))
case reflect.Int64:
field[key] = float64(field2.Interface().(int64))
case reflect.Uint:
field[key] = float64(field2.Interface().(uint))
case reflect.Uint8:
field[key] = float64(field2.Interface().(uint8))
case reflect.Uint16:
field[key] = float64(field2.Interface().(uint16))
case reflect.Uint32:
field[key] = float64(field2.Interface().(uint32))
case reflect.Uint64:
field[key] = float64(field2.Interface().(uint64))
case reflect.Float32:
field[key] = float64(field2.Interface().(float32))
case reflect.Float64:
field[key] = field2.Interface()
default:
field[key] = field2.Interface()
}
} return field
} func mapToStruct(m map[string]interface{}, v interface{}) error {
out, err := json.Marshal(m)
if err != nil {
return err
}
return json.Unmarshal(out, &v)
} func toSnake(s string) string {
out := bytes.Buffer{} bName := []byte(s) point := 0
for index, b := range bName {
// 非大写,不需要转化
if b < 65 || b > 90 || index-point < 2 {
out.WriteByte(b)
continue
}
// 首字符大写,直接转化为小写
if index == 0 {
out.WriteByte(b + 32)
point = index
}
// 连续三个大写,触发转化
if index-point >= 2 {
out.WriteByte(95)
out.WriteByte(b + 32)
point = index
}
} return out.String()
} func parseTn(v interface{}) string {
var name string tp := reflect.TypeOf(v).Elem()
switch tp.Kind() {
case reflect.Ptr:
sp := strings.Split(tp.String(), ".")
name = sp[len(sp)-1]
case reflect.Slice:
sp := strings.Split(tp.String(), ".")
name = sp[len(sp)-1]
case reflect.Struct:
name = tp.Name()
}
name = toSnake(name)
return name + ".json"
} func randId() string {
return fmt.Sprintf("%x", md5.Sum([]byte(time.Now().String())))
}

golang使用json格式实现增删查改的更多相关文章

  1. json字符串转换成json增删查改节点

    一.功能实现 1.节点树查询: 按ID查询树 2.节点新增: http://host/tree_data/node/${treeId} in: {node: {key: ..., ...}, pare ...

  2. 8天学通MongoDB——第二天 细说增删查改

    原文地址:http://www.cnblogs.com/huangxincheng/archive/2012/02/19/2357846.html 看过上一篇,相信大家都会知道如何开启mongodb了 ...

  3. EasyUI的增删查改(后台ASP.NET)

    转自:http://www.cnblogs.com/dedeyi/archive/2013/04/22/3035057.html 某某人曾经跟我说,你们做系统不就是增删查改吗. 是啊,很多时候我们就是 ...

  4. 一套手写ajax加一般处理程序的增删查改

    倾述下感受:8天16次驳回.这个惨不忍睹. 好了不说了,说多了都是泪. 直接上代码 : 这个里面的字段我是用动软生成的,感觉自己手写哪些字段太浪费时间了,说多了都是泪 ajax.model层的代码: ...

  5. 极极极极极简的的增删查改(CRUD)解决方案

    去年这个时候写过一篇全自动数据表格的文章http://www.cnblogs.com/liuyh/p/5747331.html.文章对自己写的一个js组件做了个概述,很多人把它当作了一款功能相似的纯前 ...

  6. 3.EF 6.0 Code-First实现增删查改

    原文链接:http://www.c-sharpcorner.com/UploadFile/3d39b4/crud-operations-using-entity-framework-5-0-code- ...

  7. backbonejs mvc框架的增删查改实例

    一:开发环境 coffeescript和nodejs需要先安装,没装网上自己查安装步骤. 代码编写环境及esp框架下载: esp框架下载地址:https://github.com/nonocast/e ...

  8. 利用dbutils工具实现数据的增删查改操作(dbutis入门)

    一.前期准备 1.安装数据库(如:mysql5.5) 2.安装Eclipse(如:3.4) 3.下载数据库驱动包 4.下载dbutis工具包 5.在Eclipse创建名为 dbutils 的工程并在工 ...

  9. SSH框架的多表查询和增删查改 (方法一)中

    原创作品,允许转载,转载时请务必标明作者信息和声明本文章==>http://www.cnblogs.com/zhu520/p/7774144.html   这边文章是接的刚刚前一遍的基础上敲的  ...

随机推荐

  1. [RN] React Native ScrollView自动滑动到顶部

    react-native 自动滚到屏幕顶部,模仿微信朋友圈评论自动定位 <ScrollView showsVerticalScrollIndicator={false} style={[styl ...

  2. Linux下g++编译thread出错的的解决方法

    错误如下图所示: 因为thread是C++11新加入的特性,所以我们在用g++编译的时候不能直接用,需要在g++后面加上 -std=c++0x -pthread 如果是gcc编译多线程的话则应该要用 ...

  3. cf1175 D\E

    链接 成功带wxy掉分..全程0输出 D E D 题意 把序列分成连续k段,f(i)表示i这个在第几段 \(\sum\limits_{i=1}^{n}a_i*f(i)\)最大 思路 想象成从k层积木依 ...

  4. cogs 997. [東方S2] 射命丸文

    二次联通门 : cogs 997. [東方S2] 射命丸文 /* cogs 997. [東方S2] 射命丸文 二维前缀和 枚举每个子矩阵 更新最大值.. 莫名rank1 */ #include < ...

  5. .NET总结--泛型与泛型集合,应用场景

    泛型优点 1.提高代码复用性,代码简洁直观 2.直接存储数据类型免去数据类型之间得隐式转换 3.免去拆箱装箱过程,提高效率 4.数据类型安全,存储时会验证是否对应该类型 泛型集合 一. ArrayLi ...

  6. share memory between guest and nic

    通过硬件的IOMMU,内核提供的共享内存.VFIO可以实现. REF: 1. offical DPDK API Doc, 简书有翻译版 DPDK编程指南(翻译)(一)  (二十七) 2. dpdk v ...

  7. js读取sqlserver数据库,输出至html

    代码: <!DOCTYPE html> <html> <head>   <meta charset="utf-8">   <m ...

  8. js函数如何传递多个参数

    应用场景: 需要根据多个参数来判断该数据所属,从而达到删除或者修改的目的. 比如删除区域下的分组,一个区域可以用多个分组,不同的区域可以有相同的分组,那么如何识别对应的分组呢??? 可以在对应的数据操 ...

  9. numpy的文件存储.npy .npz 文件详解

    Numpy能够读写磁盘上的文本数据或二进制数据. 将数组以二进制格式保存到磁盘 np.load和np.save是读写磁盘数组数据的两个主要函数,默认情况下,数组是以未压缩的原始二进制格式保存在扩展名为 ...

  10. 批量实现ssh免密登录

    本节索引 场景分析 ssh免密登录 pssh工具批量管理 SHELL自动化脚本 本篇总结 场景分析 作为一个运维工程师,不是每个人工作的环境都想阿里.腾讯那样,动不动就上亿的PV量,上万台服务器.我们 ...