Pause容器 Pause容器定义Pause容器,又叫Infra容器,本文将探究该容器的作用与原理。 在kubelet的配置中有这样一个参数: 12KUBELET_POD_INFRA_CONTAINER=--pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest 上面是openshift中的配置参数 2018-06-13 k8s k8s
crontab、anacron、logrotate relationship 服务器上的nginx使用logrotate来分割日志,设置为每天分割。但是logrotate似乎没有工作,日志并没有分割。服务器是CentOS 6。 为了找到原因,分析可能出错的地方。如果是logrotate未执行,可能是crond没有启动,因为logrotate被/etc/cron.daily/logrotate脚本所启动,可以查看其中代码: 123456789[root@test ~]# ca 2018-05-24 logrotate logrotate
ELK Sentinl Sentinl简介Sentinl 5扩展自Kibi / Kibana 5,具有警报和报告功能,可使用标准查询,可编程验证器和各种可配置操作来监控,通知和报告数据系列更改 - 将其视为一个独立的“观察者” “报告”功能(PNG / PDFs快照)。 SENTINEL还旨在通过直接在Kibana UI中整合来简化在Kibi / Kibana中创建和管理警报和报告的过程。 功能模块WatchersAla 2018-05-21 ELK ELK
ES内置账号密码修改、自定义角色自定义账号、ldap及AD认证 自定义内置账号 账户elastic为elasticsearch超级管理员,拥有所有权限 账户kibana用于kibana组件获取相关信息用于web展示 账户logstash_system用于logstash服务获取elasticsearch的监控数据 注意:此步骤需先启动elasticsearch服务 12345678910111213141516[elasticsearch@elastics 2018-05-07 ELK ELK
Elasticsearch分片及集群说明 replica的作用主要包括: a.容灾:primary分片丢失,replica分片就会被顶上去成为新的主分片,同时根据这个新的主分片创建新的replica,集群数据安然无恙; b.提高查询性能:replica和primary分片的数据是相同的,所以对于一个query既可以查主分片也可以查备分片,在合适的范围内多个replica性能会更优(但要考虑资源占用也会提升[cpu/disk/heap]) 2018-05-07 ELK ELK
hexo添加admin,修改默认端口 默认使用4000端口,用hexo s -p 80 ,可以暂时修改启动端口。但是每次启动都要写”-p 80”才行,过于繁琐。 修改方法: 1找到node_modules\hexo-server\index.js文件,可以修改默认的port值! 另外需要在_config.yml添加如下信息:123456#for hexo-adminadmin: username: martin #自己设置用户名 2018-04-20 hexo hexo
docker cicd持续集成部署 持续集成的概念持续集成,Continuous integration ,简称CI。 首先,解释下集成:所有的项目代码都是托管在SVN或者GIT服务器上(以下简称代码服务器)。每个项目都有若干个单元测试和集成测试。集成测试是单元测试的逻辑扩展:在单元测试的基础上,将所有模块按照设计要求组装成为子系统或系统进行集成测试。实践表明,一些模块虽然能够单独地工作,但并不能保证连接起来也能正常的工作。一些局部 2018-04-20 docker docker
logstash吞吐率优化 问题一##最近发现kibana的日志传的很慢,常常查不到日志,由于所有的日志收集都只传输到了一个logstash进行收集和过滤,于是怀疑是否是由于logstash的吞吐量存在瓶颈。一看,还真是到了瓶颈。 优化过程经过查询logstash完整配置文件,有几个参数需要调整 12345678# pipeline线程数,官方建议是等于CPU内核数pipeline.workers: 24# 实际output 2018-04-13 ELK ELK
kafka性能调优 Kafka的配置详尽、复杂,想要进行全面的性能调优需要掌握大量信息,这里只记录一下我在日常工作使用中走过的坑和经验来对kafka集群进行优化常用的几点。##1.JVM的优化java相关系统自然离不开JVM的优化。首先想到的肯定是Heap Size的调整。 vim bin/kafka-server-start.sh 调整KAFKA_HEAP_OPTS=”-Xmx16G -Xms16G”的值推荐 2018-04-13 kafka kafka
ElasticSearch 索引查询使用指南 1.我们通常用用_cat API检测集群是否健康。 确保9200端口号可用:curl ‘localhost:9200/_cat/health?v’ 绿色表示一切正常, 黄色表示所有的数据可用但是部分副本还没有分配,红色表示部分数据因为某些原因不可用. 2.通过如下语句,我们可以获取集群的节点列表:curl ‘localhost:9200/_cat/nodes?v’ 3.通过如下语句,列出所有索引: 2018-04-03 ELK ELK