编程开发
自学Python:Scrapeasy库一行代码搞定整个网页
Scrapy是适用于Python的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。
Scrapy吸引人的地方在于它是一个框架,任何人都可以根据需求方便的修改。它也提供了多种类型爬虫的基类,如BaseSpider、sitemap爬虫等,最新版本又提供了web2.0爬虫的支持。
Scrapeay 是Py
Linux_187_服务器安全与sshd配置
ssh配置文件
Linux强调一切皆文件,Linux系统更改各种软件的配置参数,也就是在修改文件内容而已
sshd服务的配置文件,默认在 /etc/ssh/sshd_config
grep -Ev '$|[# ]' /etc/ssh/sshd_config
默认的sshd配置文件,如下
HostKey /etc/ssh/ssh_host_rsa_key
HostKey /etc/ssh/ssh_h
疫情之下,普通人该如何挣钱
目前、疫情象开了花的芝麻,一波接一波的不断到处乱窜,一会儿西安、一会儿哈尔滨、一会儿上海的,扰得我们大家是心神不定,不得安宁。最为伤人的是一波一波的封城、隔离。作为普通人光隔离不上班的,房贷、车贷不用交了;一家老小不用活了。可我有个朋友兰,她可牛了,这期间她就在家自个儿做自媒体视频剪辑,一个月下来也挣个几千上万的,说得我都羡慕不已。
下面就让兰来给大家讲讲自媒体视频剪辑是如何赚钱的吧……
她说:自
深入理解file-max与ulimit的差别,以及file-max最大值和限制最大值的因素
Linux对能够打开的文件句柄的数量做了限制。限制是分为三个层面:
系统层面、用户层面、进程层面。
如果某个进程打开的文件句柄超过限制,再打开文件就会报错。
Too many open files 或者 Socket/File: Can’t open so many files
因此,在编程时,如果进程要占用大量文件句柄的话,就要看看是否要调整最大可打开的文件句柄数,同时也要注意close释放掉
Python进程管理神器——Supervisor
一、简介
Supervisor 是一款 Python 开发的进程管理系统,允许用户监视和控制 Linux 上的进程,能将一个普通命令行进程变为后台守护进程,异常退出时能自动重启
详细介绍查阅:Supervisor Introduction
二、安装
Supervisor 支持 Linux 和 Mac,不支持 Windows
本文系统为: centos,supervisor==4.2.4
pip3
上传本地代码到github详解
一、(无github账号的)注册,登录github,创建repository,设置访问权限
image.png
image.png
image.png
复制https地址
二、建立git仓库
2.1、cd到本地项目目录,执行git命令
git init
2.2、将项目的所有文件添加到
轻松部署运维监控系统的最佳方案——WGCLOUD
WGCLOUD是一款轻量高性能的IT运维工具,具有分布式,自动化采集,部署操作容易,资源占用很低,轻量,私有化部署,支持内网运行等特点
1、首先在网站下载安装包(
默认安装包中包含了server和agent,即服务端和客户端,当我们监控多个主机时候,也可以单独下载agent包,如下图,当前最新版本是v3.3.7
我们根据自己的实际情况下载对应的安装包,
