edgedb 是基于pg 上的对象关系数据库,已经写过使用docker 运行的demo,为了探索内部的原理,做了一下尝试,开启pg 访问 后边会进一步的学习 环境准备 为了测试,使用yum 安装 安装 sudo tee <<'EOF' /etc/yum.repos.d/edgedb.repo [edgedb] name=edgedb baseurl=https://packages.edgedb.com/rpm/el$releasever/ enabled=1 gpgcheck=1 gpgke…
前面已经创建好了一个简单可以访问pg 的edgedb 环境,现在测试几个数据库操作命令在pg 的存储 创建数据库 连接环境 注意账户是按照上次创建的环境配置 edgedb -u edgedb 创建数据库 create database demo; pg 后端的效果,从截图看出和普通创建数据库的效果是一致的 默认创建的数据库表 select * from pg_catalog.pg_tables where tableowner='edgedb'; 数据表 edgedb object edgedb…
做为一个简单的记录,方便后期分析学习 当前包含了一个timescale 的extension 可以不用关注 信息 ps -ef |grep edgedb edgedb 10559 24858 0 4月23 ? 00:00:00 /usr/lib64/edgedb-1-alpha1/bin/python3.7 -m edb.server.procpool.worker --cls-name edb.server.compiler.compiler.Compiler --cls-args gAN9c…
  edgedb 基于python开发,同时源码重包含了好多子项目,以下进行简单的源码编译 clone 代码 需要递归处理,加上recursive,比较慢稍等 git clone --recursive https://github.com/edgedb/edgedb.git 效果 正克隆到 'edgedb'... remote: Enumerating objects: 165, done. remote: Counting objects: 100% (165/165), done. rem…
edgedb 是基于python开发的,同时集成了cython 以下为包的setup.py 配置,从里面我们可以看到关于edgedb 的一些依赖 以及构建过程 setup.py 源码 整体配置不算很多,500 多行,主要是cython extension 配置以及pg 构建配置,以及pg extension 配置,其中添加了关于pg 以及 pg 扩展build 的自定义cmdclass 代码 # # This source file is part of the EdgeDB open sour…
引言 在大数据学习系列之一 ----- Hadoop环境搭建(单机) 成功的搭建了Hadoop的环境,在大数据学习系列之二 ----- HBase环境搭建(单机)成功搭建了HBase的环境以及相关使用介绍.本文主要讲解如何搭建Hadoop+Hive的环境. 一.环境准备 1,服务器选择 本地虚拟机 操作系统:linux CentOS 7 Cpu:2核 内存:2G 硬盘:40G 说明:因为使用阿里云服务器每次都要重新配置,而且还要考虑网络传输问题,于是自己在本地便搭建了一个虚拟机,方便文件的传输以…
部署规划 HBase全称叫Hadoop Database,它的数据存储在HDFS上.我们的实验环境依然基于上个主题Hive的配置,参考大数据学习(11)-- Hive元数据服务模式搭建. 在此基础上,增加HBase的部署规划.我感觉这8G的内存马上要跑不动了. 主机 RegionServer Master server01  •   server02  •   server03  • • 安装HBase 把HBase解压到/usr目录下,版本是2.26. [root@server01 home]…
一.安装并配置Linux 8. 使用当前root用户创建文件夹,并给/opt/下的所有文件夹及文件赋予775权限,修改用户组为当前用户 mkdir -p /opt/modules mkdir -p /opt/software mkdir -p /opt/datas mkdir -p /opt/tools /opt/* chown beifeng:beifeng /opt/* 最终效果如下: [beifeng@beifeng-hadoop- opt]$ pwd /opt [beifeng@beif…
引言 在上一篇中 大数据学习系列之五 ----- Hive整合HBase图文详解 : http://www.panchengming.com/2017/12/18/pancm62/ 中使用Hive整合HBase,并且测试成功了.在之前的大数据学习系列之一 ----- Hadoop环境搭建(单机) : http://www.panchengming.com/2017/11/26/pancm55/ 中成功的搭建了Hadoop的环境,本文主要讲的是Hadoop+Spark 的环境.虽然搭建的是单机版,…
一 运行环境 从阿里云申请三台云服务器,这里我使用了两个不同的阿里云账号去申请云服务器.我们配置三台主机名分别为zy1,zy2,zy3. 我们通过阿里云可以获取主机的公网ip地址,如下: 通过secureRCT连接主机106.15.74.155,运行ifconfig,可以查看其内网ip地址: 1.账号1申请了两台云服务器: 主机zy1的公网ip为:106.15.74.155,内网ip为172.19.182.67. 主机zy2的公网ip为:47.103.134.70,内网ip为172.19.14.…