从0开始安装Nextcloud

为什么要自建网盘?

相信大家都有存储东西的需求,但是随着国内网盘环境的恶化,只能说是没有最差只有更差的体验。出于这一点,我们选择自建网盘。

为什么要选择Nextcloud?

开源网盘比较友好的只有三款:SeafileownCloudNextcloud。结合我自身的需求和这三款网盘的友好度综合考虑之后,只能说:NextCloud Yes!

自建网盘的安全性

涉密不上网,上网不涉密,这是基本常识。

同时,安全和便利是相对的,安全就很难便利,便利就很难安全。

因此其中的度只能自己把握。我的网盘是搭建在家里的家庭服务器上,为了保证一定的便利性,只能够牺牲一定的安全性,通过Ngrok将它穿透出来,使得外网可以访问。

开始操作

先提出一个基本概念,为了从0开始,本文直接从Vultr新建了一台Ubuntu Server 18.04进行操作。

1、新机器第一步当然是:更新软件

sudo apt-get update && sudo apt-get upgrade

2、安装Nginx和PHP-FPM

sudo apt-get install nginx php-fpm

3、创建网站目录,本文为/webdata

sudo mkdir /webdata

4、下载Nextcloud文件,到官网获取下载地址,下载到/webdata,并解压

cd /webdata
wget https://download.nextcloud.com/server/releases/nextcloud-18.0.1.zip
unzip nextcloud-18.0.1.zip

如果提示 Command 'unzip' not found,那么就先安装unzip之后再解压文件包

sudo apt-get install unzip

解压完成后,/webdata目录下会生成一个nextcloud目录,因此我们的Nextcloud安装文件夹为/webdata/nextcloud,这个地址我们下一步修改Nginx配置文件时需要用到

5、配置Nginx,推荐在/etc/nginx/conf.d/中新建一个nextcloud.conf,推荐配置内容如下:

upstream php-handler {
    server unix:/var/run/php/php7.2-fpm.sock;
}

server {
    listen 80;
    listen [::]:80;
    server_name pan.mateor.cn;
    return 301 https://$server_name:443$request_uri;
}

server {
    listen 443 ssl http2;
    listen [::]:443 ssl http2;
    server_name pan.mateor.cn;

    ssl_certificate /cert/fullchain.pem;
    ssl_certificate_key /cert/privkey.pem;

    #add_header Strict-Transport-Security "max-age=15768000; includeSubDomains; preload;" always;
    add_header Referrer-Policy "no-referrer" always;
    add_header X-Content-Type-Options "nosniff" always;
    add_header X-Download-Options "noopen" always;
    add_header X-Frame-Options "SAMEORIGIN" always;
    add_header X-Permitted-Cross-Domain-Policies "none" always;
    add_header X-Robots-Tag "none" always;
    add_header X-XSS-Protection "1; mode=block" always;

    fastcgi_hide_header X-Powered-By;

    root /webdata/nextcloud;

    location = /robots.txt {
        allow all;
        log_not_found off;
        access_log off;
    }

    location = /.well-known/carddav {
      return 301 $scheme://$host:$server_port/remote.php/dav;
    }
    location = /.well-known/caldav {
      return 301 $scheme://$host:$server_port/remote.php/dav;
    }

    client_max_body_size 512M;
    fastcgi_buffers 64 4K;

    gzip on;
    gzip_vary on;
    gzip_comp_level 4;
    gzip_min_length 256;
    gzip_proxied expired no-cache no-store private no_last_modified no_etag auth;
    gzip_types application/atom+xml application/javascript application/json application/ld+json application/manifest+json application/rss+xml application/vnd.geo+json application/vnd.ms-fontobject application/x-font-ttf application/x-web-app-manifest+json application/xhtml+xml application/xml font/opentype image/bmp image/svg+xml image/x-icon text/cache-manifest text/css text/plain text/vcard text/vnd.rim.location.xloc text/vtt text/x-component text/x-cross-domain-policy;

    location / {
        rewrite ^ /index.php;
    }

    location ~ ^\/(?:build|tests|config|lib|3rdparty|templates|data)\/ {
        deny all;
    }
    location ~ ^\/(?:\.|autotest|occ|issue|indie|db_|console) {
        deny all;
    }

    location ~ ^\/(?:index|remote|public|cron|core\/ajax\/update|status|ocs\/v[12]|updater\/.+|oc[ms]-provider\/.+)\.php(?:$|\/) {
        fastcgi_split_path_info ^(.+?\.php)(\/.*|)$;
        set $path_info $fastcgi_path_info;
        try_files $fastcgi_script_name =404;
        include fastcgi_params;
        fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
        fastcgi_param PATH_INFO $path_info;
        fastcgi_param HTTPS on;
        # Avoid sending the security headers twice
        fastcgi_param modHeadersAvailable true;
        # Enable pretty urls
        fastcgi_param front_controller_active true;
        fastcgi_pass php-handler;
        fastcgi_intercept_errors on;
        fastcgi_request_buffering off;
    }

    location ~ ^\/(?:updater|oc[ms]-provider)(?:$|\/) {
        try_files $uri/ =404;
        index index.php;
    }

    location ~ \.(?:css|js|woff2?|svg|gif|map)$ {
        try_files $uri /index.php$request_uri;
        add_header Cache-Control "public, max-age=15778463";
        add_header Referrer-Policy "no-referrer" always;
        add_header X-Content-Type-Options "nosniff" always;
        add_header X-Download-Options "noopen" always;
        add_header X-Frame-Options "SAMEORIGIN" always;
        add_header X-Permitted-Cross-Domain-Policies "none" always;
        add_header X-Robots-Tag "none" always;
        add_header X-XSS-Protection "1; mode=block" always;
        access_log off;
    }

    location ~ \.(?:png|html|ttf|ico|jpg|jpeg|bcmap)$ {
        try_files $uri /index.php$request_uri;
        access_log off;
    }
}

*注意:上述配置中,需要修改pan.mateor.cn为你自己的网盘地址,需要修改/cert/fullchain.pem/cert/privkey.pem为你的证书地址,需要修改/webdata/nextcloud/为你的Nextcloud安装文件夹。

*注意:申请证书可参考《使用Certbot签发Let’s Encrypt泛域名证书

6、重新载入Nginx配置

sudo nginx -s reload

7、对网站文件夹进行授权

sudo chown www-data:www-data /webdata/ -R

现在,使用浏览器打开我们的网站,会发现出现一些错误,原因是一些Nextcloud需要的扩展我们没装。

8、参照提示安装扩展

sudo apt-get install php-zip php-xml php-mbstring php-gd php-curl php-mysql

9、重新启动PHP-FPM

sudo service php7.2-fpm restart

刷新浏览器页面,发现已经进入了安装界面。

10、安装Mysql

sudo apt-get install mysql-server

11、创建Nextcloud的Mysql账户(依次执行)

mysql -u root
create user nextcloud;
create database nextcloud;
grant all on nextcloud.* to nextcloud;

*注意:这一步我懒得设置密码,出于安全考虑,应该设置密码。

12、填写对应信息,进行安装

写在最后

至此,Nextcloud就安装完成了。

Nextcloud有对应的Mac、Windows、iOS、Android应用,可以让我们非常便捷地对网盘进行管理。也可以使用任何支持webdav的文件管理器来管理它,这也是为什么我选择它的原因。

参考资料

1、Nextcloud推荐的Nginx配置

2、使用Certbot签发Let’s Encrypt泛域名证书

使用Certbot签发Let’s Encrypt泛域名证书

前置条件

所使用的系统环境为:Ubuntu Server 18.04

所使用的域名解析商:DNSPOD

本文所有步骤及结论,均基于上述前置条件,如有不一致,请读者自行调整。

操作步骤

1、添加PPA并更新软件列表(逐行执行)

sudo apt-get update
sudo apt-get install software-properties-common
sudo add-apt-repository universe
sudo add-apt-repository ppa:certbot/certbot
sudo apt-get update

2、安装Certbot

sudo apt-get install certbot

3、安装对应DNS解析商插件

sudo apt-get install python3-certbot-dns-<PLUGIN>

我的DNS解析商是DNSPOD,但官方并没有提供支持,只能够用第三方的,从这一步开始,就与官方的教程有些差异了。

这一步我需要进行的安装步骤是:(逐行执行)

git clone https://github.com/tengattack/certbot-dns-dnspod
cd certbot-dns-dnspod
sudo python setup.py install

*注意:如果install的时候提示找不到各种文件,请先执行:

sudo apt-get install build-essential libssl-dev libffi-dev python-dev

这里注意的是,需要先创建API Token,点此去创建

将创建好的API IDAPI TOKEN保存在一个文件中,这里假设是/path/to/credentials.ini。文件保存的格式如下:

certbot_dns_dnspod:dns_dnspod_api_id = 12345
certbot_dns_dnspod:dns_dnspod_api_token = 1234567890abcdef1234567890abcdef

保存后,修改文件的权限:

chmod 600 /path/to/credentials.ini

至此,整个配置过程就已经完成了。于是,我们可以使用以下命令来生成证书文件:

certbot certonly -a certbot-dns-dnspod:dns-dnspod --certbot-dns-dnspod:dns-dnspod-credentials /path/to/credentials.ini -d example.com -d "*.example.com"

*注意:上述命令中,/path/to/credentials.ini是上一步生成的包含DNSPOD API Token的文件,example.com*.example.com就是你的泛域名。

生成后的证书会保存在:

/etc/letsencrypt/live/example.com

*注意:example.com是上述步骤中对应的域名

此时,证书有效期为3个月,那3个月后怎么办呢?因此,我们需要在系统的Crontab中写一个定时任务来更新证书,更新命令为:

/usr/local/bin/certbot renew -a certbot-dns-dnspod:dns-dnspod --certbot-dns-dnspod:dns-dnspod-credentials /path/to/credentials.ini

至此,整个生成过程就完成了,Enjoy it~

参考文档

1、https://certbot.eff.org/lets-encrypt/ubuntubionic-other

2、官方支持的DNS解析商

3、DNSPOD的插件地址及其使用方法

Aria2下载到腾讯云对象存储(COS)或阿里云对象存储(OSS)

写在前面

上篇扫盲了《闲置VPS安装Aria2进行离线下载》,本文分享的是一些进阶玩法。

其实原理和实现都很简单,都是现成的工具,这里其实只是分享一个思路。

配置介绍

这里先简单描述下我的运行配置,免得各位看官看到后面的时候出现不该有的疑惑。

Aria2 的下载目录:

/aria2/running

Aria2 的 on-download-complete 参数对应的脚本:

/etc/aria2/complete.sh

/etc/aria2/complete.sh 的内容:

#!/bin/bash



if [ "$2" == "0" ]; then

  exit 0

fi



SRC=$3

while true; do

  DIR=`dirname "$SRC"`

  if [ `basename "$DIR"` == 'running' ]; then

    mv "$SRC" `dirname "$DIR"`/sync/

    exit $?

  else

    SRC=$DIR

  fi

done

/etc/aria2/complete.sh 的作用其实只有一个:

将下载好的文件(文件夹)从 /aria2/running 移动到 /aria2/sync。

其实上文已经把内容都讲完了。

这个功能本质上其实就是使用 Aria2 进行下载,利用阿里云OSS或者腾讯云COS的官方工具挂载文件在本地(本文中是/aria2/sync),下载完了之后触发脚本时将下载好的文件从下载目录移动到挂载目录。

阿里云具体步骤

参考《挂载阿里云OSS到本地当远程磁盘

腾讯云具体步骤

参考《挂载腾讯云COS到本地当远程磁盘

写在最后

至此,本文要介绍的内容就已经完结了,我个人建议开机就自动挂载,相信大家也知道怎么操作,我就不废话了。

在文件转存到COS或OSS之后,就可以使用官方的浏览工具进行浏览了。

另外,阿里云我没仔细研究,但腾讯云COS有两个功能我非常喜欢,就是生命周期跨地域复制,感兴趣的朋友可以自己研究。

闲置VPS安装Aria2进行离线下载

写在前面

由于前段时间买买买,导致手上多出来几台闲置的VPS。而因为大局域网环境,国内的BT其实根本没有速度(IPv6环境有所改善)。因此决定用一台VPS来搭建离线下载。

其实搭建很简单,那为什么要专门写一篇文章呢?因为有一些后续的折腾需要先安装Aria2,所以本文作扫盲用。

开始安装

本文基于Ubuntu Server 18.04,如果非此系统请类推。

1、安装aria2,执行

apt install aria2

2、创建文件夹,执行

mkdir /etc/aria2

3、创建Session文件,执行

touch /etc/aria2/aria2.session

4、创建配置文件,执行

touch /etc/aria2/aria2.conf

5、修改配置文件(/etc/aria2/aria2.conf)的内容,我个人比较推荐参考P3TERX的配置,本文提供一个备份,可以以他的为主,作一些个性化修改

6、运行aria2,执行

aria2c --conf-path=/etc/aria2/aria2.conf -D

至此,aria2就安装且启动了。至于管理,我个人比较推荐AriaNg,如何部署与使用,请参照官方文档

进阶

1、Aria2 无法下载磁力链接、BT种子和速度慢的解决方案

2、Aria2 + Rclone 实现 OneDrive、Google Drive 等网盘离线下载

我的骚操作

iOS操作系统有一款浏览器叫Alook,这款浏览器允许在网页载入时或网页载入后执行自定义JavaScript脚本,这是一个利器。

我尝试写了一些Js脚本,当打开的网页是某些网盘页面或文件下载页面的时候,就会将该页面包含的下载地址提取出来,并使用aria2的jsonrpc方式添加任务,实现自动化的远程下载。

至于下载完成之后如何同步到本地,那是另一回事了。