2025年11月

反向代理

gost -L tcp://:5000/127.0.0.1:5244
作为一个 tcp 服务端在 5000 端口监听,把所有流量转发到 127.0.0.1:5244

内网穿透

拥有公网的机器
gost -L "socks5://:6666?bind=true"
内网机器
在 5244 启动一个 http 服务端作为内网服务
gost -L rtcp://:5555/127.0.0.1:5244 -F socks5://:6666
内网机器首先和公网机器的 socks5 服务端进行了连接,监听 5555 端口,实际上是让公网机器监听公网机器的 5555 端口,流量转发到内网机器的 5244 端口。

ws 代理服务

服务端
gost -L ws://:6666
在 6666 端口监听 ws 代理服务端。
客户端
gost -L socks5://:8888 -F ws://:6666
在 8888 端口开启 socks5 服务端,流量通过 ws 转发到服务端的 ws 代理服务。

在 ws 传输 tcp 服务

服务端
在 127.0.0.1:25565 启动一个 tcp 服务。
gost -L "ws://0.0.0.0:6666?path=/ws"
gost 启动一个 ws 代理
客户端
gost -L tcp://127.0.0.1:8888/127.0.0.1:25565 -F "ws://:6666?path/ws"
客户端监听本地 8888 端口,把所有流量通过 ws 代理转发到服务端机器的 25565 端口。

https://artifacts.elastic.co/downloads/kibana/kibana-9.2.0-linux-x86_64.tar.gz
https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-9.2.0-linux-x86_64.tar.gz
下载这两个并解压。

修改 elastic/config/elasticsearch.yml

cluster.name 一个集群名字
node.name 一个节点名字
path.data 数据目录
path.logs 日志目录
network.host 监听地址,推荐 0.0.0.0
cluster.initial_master_nodes 节点地址,使用上面的节点地址

修改 elastic/config/jvm.options

-Xms2g
-Xmx2g

设置合适的大小
编辑 /etc/sysctl.conf 文件
添加一行 vm.max_map_count=262144
sysctl -p 或重启生效
修改 kibana/config/kibana.yml

server.port: 监听端口
server.host: 监听地址
elasticsearch.hosts: ["https://<elasticsearch地址>:<端口>]

游览器访问 kibana 网页,提示运行 bin\elasticsearch-create-enrollment-token.bat --scope kibana ,设置 kibana 和 elasticsearch 之间的鉴权
运行 elasticsearch/bin/elasticsearch-reset-password -u elastic 修改 elastic 账号的密码

fallocate -l 1G /swapfile
chmod 600 /swapfile
mkswap /swapfile
swapon /swapfile
echo "/swapfile swap swap defaults 0 0" >> /etc/fstab

查看是否开启 swap
free -m

列出会话

tmux ls
Ctrl+b s

新建会话

tmux
tmux new -s <name>

重命名会话

tmux rename-session -t <old> <new>
Ctrl+b $

删除会话

exit
tmux kill-session -t <name>

退出会话

Ctrl+b d
tmux detach

连接会话

tmux attach -t <name>
tmux at -t <name>
tmux attach
tmux at

切换会话

tmux switch -t <name>

划分为垂直两个窗口

tmux split
Ctrl+b "

划分为水平两个窗口

tmux split -h
Ctrl+b %