airflow 笔记
首先是一个比较好的英文网站,可能要fq:http://site.clairvoyantsoft.com/installing-and-configuring-apache-airflow/
========================================================
py3venv
在 mkdir ~/airflow/py3venv
执行:python3 -m venv ~/airflow/py3venv
进入python3 环境:source /home/airflow/py3venv/bin/activate
以后的所有操作都进到 py3venv 的python3 环境操作
=========================================================
看看是否有gcc,没有的话需要进行安装:
sudo yum install gcc (后续安装airflow如果不成功,可以再次执行,它会更新包)
=========================================================
(py3venv) [airflow@iZ114t000jwZ airflow]$ airflow initdb
[2018-08-22 14:30:30,472] {configuration.py:206} WARNING - section/key [celery/celery_ssl_active] not found in config
[2018-08-22 14:30:30,473] {default_celery.py:41} WARNING - Celery Executor will run without SSL
[2018-08-22 14:30:30,474] {__init__.py:45} INFO - Using executor CeleryExecutor
DB: mysql://prodroot:***@rds8r7t55g74gz9a61d0.mysql.rds.aliyuncs.com/airflow?charset=utf8
[2018-08-22 14:30:30,724] {db.py:312} INFO - Creating tables
INFO [alembic.runtime.migration] Context impl MySQLImpl.
INFO [alembic.runtime.migration] Will assume non-transactional DDL.
[2018-08-22 14:30:31,107] {models.py:189} INFO - Filling up the DagBag from /home/airflow/proj/airflow/test/dags
=========================================================
启动服务脚本
nohup airflow webserver >>/home/airflow/airflow/logs/webserver.log &
nohup airflow worker >> /home/airflow/airflow/logs/worker.log &
nohup airflow scheduler >> /home/airflow/airflow/logs/scheduler.log &
nohup airflow flower >> /home/airflow/airflow/logs/flower.log &
/home/airflow/proj/airflow/test/airflow-webserver.pid
里面的数字就是webserver的process id, kill -9 {id} 就能停掉 webserver 服务了,重启用上面第一个
重启服务器,airflow会以 /home/airflow/airflow/airflow.cfg 为准
=========================================================
修改数据库配置
可以在~/airflow 目录下,修改airflow.cfg配置文件,数据库连接改为本地mysql的URL
先在mysql数据库里新建airflow数据库
然后修改airflow.cfg配置文件:
sql_alchemy_conn = sqlite:////root/airflow/airflow.db 改为:
sql_alchemy_conn = mysql://root:root@192.168.202.128:3306/airflow
接着重新初始化数据库:
airflow initdb
如果成功,则在airflow数据库表中可以看到很多表
如出现以下报错,则执行:yum install MySQL-python (注意此命令为centos7系统适合)
return __import__('MySQLdb') ImportError: No modulenamedMySQLdb
=======================================================
airflow1.10 中, airflow initdb 报错:
在Flask中连接MySQL时出现ModuleNotFoundError: No module named 'MySQLdb'错误,
只要在配置SQLALCHEMY_DATABASE_URI时,加上一个pymysql就可以了:
app.config['SQLALCHEMY_DATABASE_URI'] = 'mysql+pymysql://root:dzd123@localhost/你的数据库名'
,当然,前提是要已经安装了pymysql,如果没有装pymysql,是会报ModuleNotFoundError: No module named 'pymysql'错误的,
安装命令也很简单:pip install pymysql
=========================================================
问题1:解决MySQLdb ImportError: libmysqlclient.so.18错误
主要解决方法就是创建一个 18的软连接
https://blog.csdn.net/haoyuxuan/article/details/45334087
=========================================================
问题2:File "/home/airflow/py3env/lib/python3.6/site-packages/airflow/models.py", line 639, in set_extra
先安装包:pip install apache-airflow[crypto]
执行:python -c "from cryptography.fernet import Fernet; print(Fernet.generate_key().decode())"
将得到的字符串替换 airflow.cfg 中fernet_key 的值
这段字符串加密算法用到
=========================================================
# 在 python 中执行添加账户:
airflow 1.9 默认安装的 SQLAlchemy version 1.2.2 ,下面这段python会报错:
File "/usr/local/lib/python3.6/site-packages/sqlalchemy/ext/hybrid.py", line 873, in set
raise AttributeError("can't set attribute")
AttributeError: can't set attribute
解决方法,执行:pip install 'sqlalchemy<1.2'
这样才能得到加密的用户记录:
import airflow
from airflow import models, settings
from airflow.contrib.auth.backends.password_auth import PasswordUser
user = PasswordUser(models.User())
user.username = 'airflow'
user.email = 'nick111@163.com'
user.password = 'airflow*****'
session = settings.Session()
session.add(user)
session.commit()
session.close()
=======================================================
redis 安装参考:https://blog.csdn.net/jiangdong2007/article/details/80890236
airflow 1.9.0要使用celery4.x, redis版本4才能与 celery4 兼容
------------
安装 Airflow 1.10.1 时的一个错误:
AttributeError: 'float' object has no attribute 'items'
参考:https://github.com/celery/celery/issues/5175
pip uninstall redis
pip install redis==2.10.6
=========================================================
rabbitmq 安装
主要参考:https://www.linuxidc.com/Linux/2016-03/129557.htm
碰到的坑:
原因就是 erlang 和 rabbitmq各有一个 cookie
~/.erlang.cookie
/var/lib/rabbitmq/.erlang.cookie
将其中一个修改,改成相同的。
ps -ef | grep rabbitmq
将进程杀掉
然后重启服务器就解决了。
=========================================================
Airflow中使用 sshoperator
http://yangcongchufang.com/airflow/airflow-ssh-operator.html
问题:{ssh_operator.py:118} WARNING - /home/airflow/tmp/a.sh: line 3: hive: command not found
a.sh 内容:
echo "aaaa" > /home/airflow/tmp/aaa1.txt
hive -f /home/airflow/tmp/a.hql
echo "aaaa" > /home/airflow/tmp/aaa2.txt
明明调用成功了 a.sh, aaa1.txt aaa2.txt 有成功生成,但是找不到 hive 命令,而在emr服务器上直接执行 sh a.sh 却可以成功打印出数据库名称列表。
解决方法:
执行:export PATH=$PATH:$HIVE_HOME/bin
在 a.sh第一行中加入:
source /etc/profile
=========================================================
如出现以下报错,则执行:yum install MySQL-python (注意此命令为centos7系统适合)
return __import__('MySQLdb') ImportError: No modulenamedMySQLdb
==========================================================
之前用的一直是airflow1.9 ,最近安装了一遍 airflow1.10。
在airflow1.9中,subdag_operator 默认使用的executor = GetDefaultExecutor(),
而1.10中默认的是executor=SequentialExecutor()。
所以导致的结果就是在 1.9 中的subdag中可以并行执行task,而 1.10中,如果不
指定 excutor,只会逐个执行。指定方法:
from airflow.executors.celery_executor import CeleryExecutor
mysubdag = SubDagOperator(
executor=CeleryExecutor()
...
)
关于这个变动,官方文档的 tips 中有做说明: https://airflow.apache.org/concepts.html#subdags
其实是Airflow1.9中其实是有个bug,subdag中无法使用 pool 中的 slot 数控制并行任务数。
1.10中没有做这个bug的修复,而是直接给个默认值:SequentialExecutor。这是个坑~~~-_-||
airflow 笔记的更多相关文章
- airflow笔记
airflow webserver --debug & # debug 模式,在后台启动webserver airflow list_dags airflow list_tasks tuto ...
- AirFlow功能展示个人笔记
DAGs 查看您可以一目了然地查看成功.失败及当前正在运行的任务数量. 选中其中一个DAG 树视图 跨越时间的 DAG 的树表示.如果 pipeline(管道)延迟了,您可以很快地看到哪里出现了错误的 ...
- 5.airflow问题
1. Traceback (most recent call last): File "/usr/bin/airflow", line 28, in <module> ...
- 3.Airflow使用
1. airflow简介2. 相关概念2.1 服务进程2.1.1. web server2.1.2. scheduler2.1.3. worker2.1.4. celery flower2.2 相关概 ...
- 4.airflow测试
1.测试sqoop任务1.1 测试全量抽取1.1.1.直接执行命令1.1.2.以shell文件方式执行sqoop或hive任务1.2 测试增量抽取2.测试hive任务3.总结 当前生产上的任务主要分为 ...
- 1.airflow的安装
1.环境准备1.1 安装环境1.2 创建用户2.安装airflow2.1 安装python2.2 安装pip2.3 安装数据库2.4 安装airflow2.4.1 安装主模块2.4.2 安装数据库模块 ...
- 2.airflow参数简介
比较重要的参数: 参数 默认值 说明 airflow_home /home/airflow/airflow01 airflow home,由环境变量$AIRFLOW_HOME决定 dags_folde ...
- 调度系统Airflow的第一个DAG
Airflow的第一个DAG 考虑了很久,要不要记录airflow相关的东西, 应该怎么记录. 官方文档已经有比较详细的介绍了,还有各种博客,我需要有一份自己的笔记吗? 答案就从本文开始了. 本文将从 ...
- git-简单流程(学习笔记)
这是阅读廖雪峰的官方网站的笔记,用于自己以后回看 1.进入项目文件夹 初始化一个Git仓库,使用git init命令. 添加文件到Git仓库,分两步: 第一步,使用命令git add <file ...
随机推荐
- PM过程能力成熟度4级
话说3级的PM已经非常厉害了,但仍然处于定性阶段.如何才能不动声色的跟BOSS过招?PM 4级就是让数字变成你的嘴巴,开启项目管理的量化大门.因此,4级PM的工作重心(详见上一篇文章中的表格),也会逐 ...
- SQL学习笔记---非select操作
非select命令 数据库 1.创建 //create database 库名 2.删除 //drop database 库名,... 2.重命名//exec sp_renamedb ...
- JQuery 图片轮播,详细注释说明,让你一看就会!
准备工作: 1.准备几张大小相同的图片 完成功能: 1.自动轮播 2.手动轮播 3.点击二侧按钮前后切换图片 JQuery插件地址: 链接:https://pan.baidu.com/s/1zNl2- ...
- JDBC实现简单增删改查
JDBC全称为:Java Data Base Connectivity (java数据库连接),主要用于java与数据库的链接. 整个链接过程如下图: 1.数据库驱动:Driver 加载mysql驱动 ...
- gcc/g++ 编译参数
1, -E(大写),预处理 例子:gcc -E test.cpp -o test.i 预处理,把程序里的#开头的替换掉,比如#include,然后生成test.i 2,-P(大写),去掉预处理生成的杂 ...
- python day09
内存空间管理 1.空间引用计数,垃圾回收机制的依据 --变量的值被引用,该值的引用计数加1 --变量解除绑定,该值的引用计数减1 --如果该值的引用计数为0,就会被自动回收 2.引用计数会出现的循环问 ...
- 使用 canvas 画图时图像文字模糊的解决办法
最近在使用 canvas 画图的时候,遇到了图像文字模糊的问题,解决思路就是根据分辨率创建不同尺寸的画布.以下是创建高分辨率画布的代码: /** * 创建高分辨率画布 * @param w 画布宽 * ...
- Python--day05(数字、字符串、列表)
1.数字类型 1. 整型 int long(py2) 2. 小数 float 3. 布尔 bool 4. 复数 complex 2. 字符串类型 只能存一个值,是有序的不可变类型 2. ...
- IO模型介绍
先理解几个问题: (1)为什么读取文件的时候,需要用户进程通过系统调用内核完成(系统不能自己调用内核)什么是用户态和内核态?为什么要区分内核态和用户态呢? 在 CPU 的所有指令中,有些指令是非常危险 ...
- Linux centos ansible
创建m01.backup.nfs.web01.web02 m01(172.16.1.61).backup(172.16.1.41).nfs(172.16.1.31).web01(172.16.1.7) ...