2025年3月29日星期六
2025年3月22日星期六
2025年最新vmess、vless节点搭建教程,使用3x-ui面板,谷歌云GCP机器搭建,开启BBR加速!!
前期准备:
1、一个域名
2、Cloudflare账号
3、一个VPS
4、订阅链接转换
防火墙设置:
1、设置防火墙规则
允许http 和 https流量
点击【创建】
2、 入站,出站 0.0.0.0/0
部署步骤(使用谷歌云,Debian12操作系统):
1、更新软件包
apt update -y && apt install -y curl && apt install -y socat
2、下载3x-ui面板
bash <(curl -Ls https://raw.githubusercontent.com/mhsanaei/3x-ui/master/install.sh)
3、申请证书
4、开启BBR加速
5、检验BBR加速是否已开启
sysctl net.ipv4.tcp_available_congestion_control
返回中带有bbr即为成功
2025年2月16日星期日
一键搭建多个协议节点教程---甬哥脚本
脚本安装命令:
- bash <(wget -qO- https://raw.githubusercontent.com/yonggekkk/sing-box-yg/main/sb.sh)
安装完成后,输入sb可进入管理页面。
安装过程:
1、命令粘贴到VPS中
2、输入1
3、剩余操作可以都用回车,保持默认即可
注意:
如果选择的是CentOS系统,还需要关闭vps防火墙来开放端口,相关命令如下:
查看防火墙状态命令:
firewall-cmd --state
停止firewall命令:
systemctl stop firewalld.service
禁止firewall开机启动命令:
systemctl disable firewalld.service
一键加速脚本教程:点此访问
2025VPS推荐:DCI 鸭一云 日本 IIJ 三网优化实例介绍,25刀一年,1T流量/月,1C,0.5G内存,3 次免费更换 IPv4 (月),无限次免费更换 IPv6 (月)
鸭一云注册:点此访问
充值优惠码:760F9FDB210
购买的时候点击这里 充值对应价格的余额,使用优惠码
日本 IIJ 三网优化实例-购买链接:点此进入
IIJ 是代表一种对中国大陆三网优化的线路,其延迟,速度十分出色。
实例优点:
1. 可以每个月换IPv4(对于累计充值不满20USD的是每月1次)(对于累计充值满20USD的是每月5次)
2. 这是IIJ优化线路小鸡,对于移动和电信非常友好,联通一般
3. 机器稳定
4. 支持流媒体DNS解锁(免费)
「DNS解锁地址」
HK: 154.83.83.84
JP: 154.83.83.85
TW: 154.83.83.86
SG: 154.83.83.87
US: 154.83.83.88
UK: 154.83.83.89
DE: 154.83.83.90
默认可使用154.83.83.83
如需更改为其他地区的Netflix/Disney等可选择其他DNS
「关闭IPv6」
sudo sysctl -w net.ipv6.conf.all.disable_ipv6=1
sudo sysctl -w net.ipv6.conf.default.disable_ipv6=1
「检查解锁情况」(仅供参考)
wget -O dns_check.sh https://github.com/1-stream/RegionRestrictionCheck/raw/main/check.sh && bash dns_check.sh -M 4
任何问题让他们加入群组 @DuckyGroup,支持人员是 @DCISupportBot
2025年1月29日星期三
使用AutoDL算力云,低成本租用4090显卡,部署高参数量DeepSeek模型,并利用Ollama,达到低成本本地使用DeepSeek模型的目的!
核心:在本地和远程服务器之间建立一个安全的隧道,实现端口转发
需要用到的命令:
#建立隧道
ssh -CNg -L 11434:127.0.0.1:11434 root@【audodl机器IP】 -p 【autodl ssh端口】
#linux安装ollama
curl -fsSL https://ollama.com/install.sh | sh
注意事项:
1、autoDL的机器在下载ollama的时候,会有warning,需要解决
apt update #更新安装源
apt install pciutils lshw #确保GPU支持
2、手动启动Ollama
ollama serve
或者让它在后台运行:
ollama serve &
3、隧道建立后,手动修改应用到的模型
2025最简单本地部署使用DeepSeek-R1模型教程,支持命令行、浏览器插件使用,支持与图片对话!!
Ollma官网:访问
浏览器插件:下载界面
下载并载入模型:
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b