问题:官网方式yum安装完saltstack之后,master与minion都成功启动后,但是却发现怎么都收不到minion的key。(zmq版本不一致所致,困扰了我好几天,希望能帮到大家。)分析:master上的状态:# 查看master 上的配置文件,只修改了interface: [root@
这篇文件主要用来解释一下salt配置中常用的参数,其他的参数可以参考官网文档。 基础参数 interface: 服务器监听地址。 ipv6: 是否启用ipv6。 max_open_files: 最大文件打开数。 worker_threads: 启动几个主线程。 timeout: 设置saltAPI
这篇笔记介绍的 field options,也就是 字段的选项属性。 首先,关于 model,是数据库与 python 代码里的一个映射关系,每一个 model 是django.db.models.Model 的一个子类。 model 里每一个属性值(即字段)代表数据库的字段,通过 定义 mode
Salt安装部署 一:salt简介 ​ 早期运维人员会根据自己的生产环境来写特定脚本完成大量重复性工作,这些脚本复杂且难以维护。系统管理员面临的问题主要是1、系统配置管理,2、远程执行命令,因此诞生了很多开源软件,系统维护方面有fabric、puppet、chef、ansible、saltsta
  本文介绍基于Python中ArcPy模块,对大量栅格遥感影像文件进行批量掩膜与批量重采样的操作。   首先,我们来明确一下本文的具体需求。现有一个存储有大量.tif格式遥感影像的文件夹;且其中除了.tif格式的遥感影像文件外,还具有其它格式的文件。   我们希望,依据一个已知的面要素矢量图层
一、测试场景 拿到一个运维如软件,做安装部署测试。其中,测试过程中存在一种场景:由于环境清理不干净等原因,导致软件安装部署时,某个组件的端口号被占用,而导致部署失败的情况。 为了测试端口被占用的这种情况下,部署逻辑是否合理(比如是否有返回正常的报错信息等),需要测试人员在被部署的服务器上模拟端口被
目录Python2.x的SimpleHTTPServer库 + wgetnginx + wgetscplszrzftp总结 Python2.x的SimpleHTTPServer库 + wget 这个方式比较灵活,Linux一般自带一个python2.x,使用完要尽快关闭这个服务,避免出现安全风险。
本篇笔记目录索引如下: model 准备 增 查 删 改 1、model 准备 在上一篇笔记中,我们新建了一个 application,增加了几个model 同步到了数据库,这次我们新建一个名为 blog 的application,同步数据结构。 大概分为以下几步: python3 manage.
Excel是微软出品的办公神器,大部分读者相信或多或少都用过。其自带的函数丰富,可以进行复杂的数据运算、分析以及可视化的输出。到目前为止没有出现可以望其项背的竞品,大部分竞品不是在模仿的路上,就是在失败的路上。 虽然Excel不是数据库管理系统,Excel文档也不是完全结构化的文件,但它以行列形式
需求背景 之前在虚拟机、远程的服务器,如果因为一些硬性限制,但又想传输的文件的时候,没有太好的办法的时候,系统如果默认安装了Python3,可以使用python自带的server服务来进行文件传输, // python 2.X temp$ python -m SimpleHTTPServer 2
_pycache__文件夹可以看作该文件夹下文件已被python接管或者说编译过。 在第一次执行代码的时候,Python解释器已经把编译的字节码放在__pycache__文件夹中,这样以后再次运行的话,如果被调用的模块未发生改变,那就直接跳过编译这一步,直接去__pycache__文件夹中去运行相
本篇笔记目录索引如下: Django 连接mysql,执行数据库表结构迁移步骤介绍 操作数据库,对数据进行简单操作 接下来几篇笔记都会介绍和数据库相关,包括数据库的连接、操作(包括增删改查)、对应的字段类型、model 里Meta 相关参数和 QueryAPI 的详解等。 这一篇先介绍数据库的连接
  Pandas库专为数据分析而设计,它是使Python成为强大而高效的数据分析环境的重要因素。 一、Pandas数据结构 1、import pandas as pd import numpy as np import matplotlib.pyplot as plt 2、S1=pd.Series
前言 缘起  实验室的学弟问我为什么他使用nvcc命令报错,起先我以为他用的是老师给的root账户,按照参考文献1便可以解决问题。  但由于并非root用户,/usr/local下没有cuda,于是便无法按照参考1中的方法去做。  这里提供一种方法,其实是参考了文献2,但似乎是歪打正着,因为2要解
需求:爬取豆瓣电影短评评论文本内容 目标:将爬取的文本存入 excel 中 爬虫步骤: 1.拼接分页网址,循环请求分页数据,获取HTML代码 2.分析获取到的HTML代码,解析出所需要的数据,提取内容 3.存储爬取到的数据 准备工作: 1.开发工具 pycharm 2.模块 requests、bs

推荐文章