分类 Linux 下的文章

pptpd开启日志记录功能

1 开启pptp日志记录选项

编辑文件 /etc/ppp/options.pptpd
找到nologfd(表示不记录日志),将其注释掉
然后,增加一行 logfile /var/log/pptpd.log,记录日志到文件

2 vpn登录/断开时,增加自定义日志记录

vpn登录和断开的时候,会自动执行/etc/ppp/ip-up/etc/ppp/ip-down两个脚本,查看这两个脚本,会发现有这样一行
This file should not be modified -- make local changes to /etc/ppp/ip-up.local instead
也就是说这两个脚本不要修改,如果要添加自定义的功能,修改ip-up.localip-down.local脚本。

另外需要注意的是,上面的脚本被调用时是有命令行参数的,具体如下:

$PEERNAME: 用户名
$1: 分配的ppp设备
$4: VPN服务器的IP
$5: 分配给客户端的内网IP
$6: 客户端真实公网IP

- 阅读剩余部分 -

source和/bin/bash的区别

通过/bin/bash filename执行脚本,会生成一个子shell,该子shell会继承当前父shell(可以理解成当前的shell)的环境变量,但子shell中新建的、改变的变量不会被带回父shell,除非使用export。

source filename 命令只是简单地读取脚本里面的语句依次在当前shell里面执行,并没有建立新的子shell,脚本里面所有新建、改变变量的语句都会保存在当前shell里面。

CentOS7.5 安装supervisor 4.2.1

环境:CentOS 7.5,Python2.7.16
建议使用pip安装

安装

pip install supervisor

安装之后,执行echo_supervisord_conf,如果能看到配置文件内容,说明安装成功。

生成配置文件

新建/etc/supervisor目录,然后执行命令:

echo_supervisord_conf > /etc/supervisor/supervisord.conf

配置文件名称建议使用supervisord.conf,如果你取了别的名称,后面执行supervisorctl命令时,就需要指定配置文件,否则会报错。

- 阅读剩余部分 -

Mac通过ssh密钥对登录远程Linux服务器

ssh登录Linux服务器通常有两种方法,第一种是通过账号密码登录,第二种是密钥对登录。

Windows环境下,我使用第一种方法比较多,因为有类似Xshell这样的工具,可以帮你记住账号密码,使用起来十分方便。而且,Xshell针对家庭和学校用户,有免费版本,不存在授权问题,可以说是十分贴心的。另外,配合他们家的Xftp使用,文件的上传下载也很方便。所以,如果你用的Windows系统,那么我会强烈推荐你使用Xshell和Xftp。

Mac用户就没有这么幸运了,因为Xshell和Xftp没有Mac版本。当然,你还可以用一些其他替代产品,比如SecureCRT,只不过是需要授权付费的,你可以选择用破解版。另外,FinalShell是免费软件,而且据说是由国人开发,支持Windows、Mac、Linux,评价也还不错。

那为什么现在我还要讲第二种登录ssh的方法呢?因为我个人不喜欢SecureCRT,FinalShell官网又看起来很简陋,我用着觉得不踏实。所以我现在的做法是,远程管理Linux用Mac自带的终端加上ssh密钥对,文件上传下载用Filezilla。

- 阅读剩余部分 -

Scrapy 实现博客爬虫实例

目标网址:http://i.csensix.com (即本站)
项目地址:blogSpider

系统环境

  1. CentOS 7.5
  2. Python 2.7.16
  3. Scrapy 1.7.3

实现过程

创建项目

scrapy startproject blogSpider
执行完上面的命令,会生成如下目录结构:

blogSpider/
    scrapy.cfg              # 配置文件
    blogSpider/             # 主要代码目录
        __init__.py
        items.py            # 定义项目items
        middlewares.py      # 项目中间件文件
        pipelines.py        # 项目管道文件
        settings.py         # 项目配置
        spiders/            # 爬虫目录
            __init__.py

- 阅读剩余部分 -