Linux_Ranger_Usage
ranger 备忘 g/ Go root gh Go home gg Go to top G Go bottom # 文件操作 复制、剪切、删除、粘贴 (针对当前文件或则选择的内容) yy 复制 dd 剪切 pp 粘贴 F5 复制 F5 剪贴 F8 删除 Delete 删除 # 书签 mX 把当前目录做一个书签 (X 表示任何字符) 'X 跳到X书签代表的目录 # 标签 不同标签可以复制、粘贴、移动 gn 新建一个标签 Alt+N 跳转到N号标签 (代表一个数字) gt,gT 跳转到前个标签,后个标签 # 排序 对文件和目录列表进行排序,以便查看。 ot 根据后缀名进行排序 (Type) oa 根据访问时间进行排序 (Access Time 访问文件自身数据的时间) oc 根据改变时间进行排序 (Change Time 文件的权限组别和文件自身数据被修改的时间) om 根据修改进行排序 (Modify time 文件自身内容被修改的时间) ob 根据文件名进行排序 (basename) on 这个好像和basename差不多(natural) os 根据...
Ceph Cluster 03 - CephFS
ceph笔记03 Cephfs的使用Cephfs的使用条件 当我们需要多个服务来挂载和实时的同步的时候, 使用到CEPHFS,可以实现文件系统的共享。内核里面现在这个时间已经内置cephfs的挂载模块, 可以直接挂载不需要安装。 cephfs运行需要MDS服务,用来存储缓存的文件信息。总体需要创建两个存储池,单独创建一个存储MDS信息的存储池, 同时需要创建一个数据池来提供存储空间。 启用mds的服务 1ceph orch mds 2 创建ceph的存储池 1234567891011121314151617181920212223242526ceph mds stat# 创建一个cephfs的metadata池ceph osd pool create metadata 32 32 # 创建一个cephfs的data池ceph osd pool create cephfsdata 64 64 # 创建ceph的状态ceph osd pool ls ceph -s # 创建cephfs的文件系统ceph fs new defaultfs metadata cephfsdata#...
Ceph Cluster 02 - OSD/RBD
Ceph的使用笔记。 创建存储池 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120# 创建一个PG为64 ,PGP为64的存储池。[ceph: root@ceph01 /]# ceph osd pool create test-64 64 64pool 'test-64' created# 创建一个自动识别的大小的存储池。[ceph: root@ceph01 /]# ceph osd pool create testpool 'test' created# 查看已经存在的存储池。[ceph: ...
Ceph Cluster 01 - Installation
Ceph 的学习笔记和记录。 开始部署信息OS Version: Fedora 34 ServerCEPH Version: v15.2.0 (Octopus) +DOCKER Version: 20.10.8 配置实例的 Hostname 和网络1234567891011121314151617181920212223vim /etc/hosts 192.168.122.121 ceph01 ceph01.liarlee.site 192.168.122.122 ceph02 ceph02.liarlee.site 192.168.122.123 ceph03 ceph03.liarlee.site 192.168.122.124 ceph04 ceph04.liarlee.site[root@ceph01 ~]$ ssh 192.168.122.121 echo "ceph01.liarlee.site" > /etc/hostname[root@ceph01 ~]$ ssh 192.168.122.122 echo "ceph02...
Ubuntu 18.04 内核编译初试
Ubuntu 18.04 上编译内核,生成deb安装包的过程和遇到的问题。使用工具: Linux-tkg系统版本: Ubuntu18.04内核版本: 5.12-muqss-6ms-skylake 背景说明看到B站大佬的教学视频, 使用Linuxtkg进行内核的编译打包和添加muqssCPU调度器, 想自己尝试一下, 同时熟悉一下Ubuntu常见的工具链,所以就开始做了这个事情。 首先是需要对系统进行初始化, 需要一些底层的工具包。 在Ubuntu上面还是有些问题的, 这个坑自己踩了。 1]$ sudo apt install zstd git wget sudo bc rsync kmod cpio libelf-dev build-essential fakeroot libncurse5-dev libssl-dev ccache bison flex qtbase5-dev kernel-package NOTE: 这里面我遇到少了pkg但是没有明确报错的是:zstd & kernel-package ,这两个如果没有正确的安装报错是比较模糊的, 完全不能定向到...
Java连接数据库报错No subject alternative names present
配置监控的时候需要配置和获取MongoDB的信息,使用华为云的MongoDBPaaS服务,如果开启了SSL就无法正常连接。 报错如下: 1Timed out after 30000 ms while waiting to connect. Client view of cluster state is {type=UNKNOWN, servers=[{address=192.168.1.1:8635, type=UNKNOWN, state=CONNECTING, exception={com.mongodb.MongoSocketWriteException: Exception sending message}, caused by {javax.net.ssl.SSLHandshakeException: java.security.cert.CertificateException: No subject alternative names present}, caused by {java.secu...
Linux性能调优笔记
应该是一个性能调优的书的笔记, 记不清了, 存货了属于是。 Linux的性能调优CPU性能释放Process生命周期 建立一个新的进程, 表示为父进程, 父进程进入Wait状态。 父进程Fork()系统调用出来的一个子进程。 子进程调用exec()对操作进行执行。 子进程执行结束退出exit()。 子进程变为Zombie进程。 等待父进程回收,更新父进程的运行状态。 进程与线程线程是可以在同一个进程下并发执行的执行单位,他们共享相同的地址,数据和运行空间。线程也叫做(LWP) - 轻量的进程。两者的区别在于,进程在同一个CPU上不能并发执行,且两个进程间不是共享资源的方式进行数据处理的。其他的地方, 进程和线程并无太大的区别,Linux的内核将使用一直的Manner对进程和线程进行调度和处理。 There are several thread implementations avaliable in linux operation system. Linux threads 传统的Linux进程 Native POSIX thread library 内核 2.6 以后由红...
ElasticSearch 安装记录
记录一下自己的集群安装过程和常见的命令。 Elastic Search三节点的安装 节点的名称和相关参数: Host-name IP Cluster Name Role elk01 192.168.122.101 liarlee-elk Elasticsearch elk02 192.168.122.102 liarlee-elk Kibana elk03 192.168.122.103 liarlee-elk Filebeat 使用清华的repo 123456789[elasticsearch]name=Elasticsearch repository for 7.x packages#baseurl=https://artifacts.elastic.co/packages/7.x/yumbaseurl=https://mirrors.tuna.tsinghua.edu.cn/elasticstack/7.x/yum/gpgcheck=0gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearc...
记一次旧LVM硬盘挂载失败
我之前的硬盘上是fedora默认的LVM分区,我换了硬盘之后,弄了一个硬盘盒,把旧的硬盘放进去,连到电脑上试图把旧的数据取出来。发现系统已经正确的识别了PV,VG,LV,但是不能挂载, 提示无法读取硬盘的Superblock 和提示 mount: unknown filesystem type ‘LVM2_member(这个提示说明你是直接挂载的/dev/sdx,LVM需要你挂载的应该是逻辑卷,不是物理设备)。 问题是这样的123456789101112131415161718192021222324252627282930313233HaydenArchLinux$ lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert home fedora_localhost-live -wi------- <118.77g root fedora_localhost-live -wi------- 7...
KVM虚拟机开启内存大页
Huge Pages是从Linux Kernel 2.6后被引入的。目的是使用更大的内存页面(memory page size) 以适应越来越大的系统内存,让操作系统可以支持现代硬件架构的大页面容量功能。透明大页(Transparent Huge Pages)缩写为THP,这个是RHEL 6(其它分支版本SUSE Linux Enterprise Server 11, and Oracle Linux 6 with earlier releases of Oracle Linux Unbreakable Enterprise Kernel 2 (UEK2))开始引入的一个功能。具体可以参考官方文档。 概念这两者有啥区别呢? 这两者的区别在于大页的分配机制,标准大页管理是预分配的方式,而透明大页管理则是动态分配的方式。 使用大页的目的: 增加内存寻址的命中率,如果使用旧的内存分页方式,操作系统需要管理很多很多的小的内存页面,查找和命中的效率比较低。 想象一下, 你有一本1000页的书,你需要找到其中的第782页的第20行中的一个“我”字,那么计算机会从第一页开始翻动一页一页的...


