<template>
  <div class="panel">
    <ul class="panel-link">
      <li><a href="#1">1.在容器云页面删除容器失败</a></li>
      <li><a href="#2">2.在容器云上通过应用商店部署服务提示服务重名</a></li>
      <li><a href="#3">3.节点重启或服务重启，服务启动失败，日志提示"endpoints"not found问题现象</a></li>
      <li><a href="#4">4.微服务升级成功后旧容器删除失败，日志提示Device isBusy</a></li>
      <li><a href="#5">5.容器调度失败，提示无节点可调度</a></li>
      <li><a href="#6">6.服务启动失败，显示存储卷异常，但pvc与pv的绑定状态都正常</a></li>
      <li><a href="#7">7.通过访问权访问服务时，多次返回结果不一致，比如一会成功一会失败</a></li>
    </ul>
    <div class="panel-item">
      <div class="panel-ques" id="1">
        <h4 class="zl-title title-h4">1.在容器云页面删除容器失败</h4>
        <p>可以通过后台kubectl命令强制删除，先删除服务下的pod，再删除对应服务的部署，在容器所在的宿主机上依次执行以下命令：</p>
        <pre>
          <p>[root@localhost ~]# kubectl delete pod system-management-server-66f758b459-gd2ch -n i2zkpcfy5a98g6itjp7aktdhmt --force --grace-period=0</p>
          <p>[root@localhost ~]# kubectl delete deployment system-management -n i2zkpcfy5a98g6itjp7aktdhmt --force --grace-period=0</p>
        </pre>
      </div>
      <div class="panel-ques" id="2">
        <h4 class="zl-title title-h4">2.在容器云上通过应用商店部署服务提示服务重名</h4>
        <p>可以查看容器云数据库service_group、group_service_relation表数据，删除脏数据后重试</p>
        <img src="/images/help/3.2.png" class="img-md" />
      </div>
      <div class="panel-ques" id="3">
        <h4 class="zl-title title-h4">3.节点重启或服务重启，服务启动失败，日志提示"endpoints"not found问题现象</h4>
        <img src="/images/help/3.3.1.png" class="img-sm" />
        <p>可以通过yaml文件更新endpoints配置，上传文件到管理节点或计算节点，执行kubectl apply -f endpoints.yaml其中name配置为上图中的endpoints名字，ip配置为存储节点IP</p>
        <img src="/images/help/3.3.2.png" class="img-md" />
        <p>附件：<a href="/images/help/endpoints.yaml" download>endpoints.yaml</a></p>
      </div>
      <div class="panel-ques" id="4">
        <h4 class="zl-title title-h4">4.微服务升级成功后旧容器删除失败，日志提示Device isBusy</h4>
        <p>问题背景：由于linux3.10.2内核版本bug，如果ntp服务在容器启动后启动会导致容器删除失败。</p>
        <p>问题原因：<a href="https://bbs.huaweicloud.com/forum/thread-9750-1-1.html" target="_blank">https://bbs.huaweicloud.com/forum/thread-9750-1-1.html</a></p>
        <p>临时解决方案，可以在部署节点执行命令</p>
        <pre>
          <p>[root@localhost ~]# ansible kube-node -a "systemctl restart ntpd"</p>
        </pre>
      </div>
      <div class="panel-ques" id="5">
        <h4 class="zl-title title-h4">5.容器调度失败，提示无节点可调度</h4>
        <p>问题背景：由于计算节点的资源不够或者服务的CPU、内存请求值设置不合理，导致无可用的资源</p>
        <img src="/images/help/3.6.1.png" class="img-xs" />
        <p>解决方法：增加计算节点的资源，也可以通过调整服务的请求值大小解决。</p>
        <p>环境级:（环境级参数修改后需要重启环境下的服务生效）</p>
        <img src="/images/help/3.6.2.png" class="img-sm" />
        <p>服务级：（服务级的参数优先级高于环境级）</p>
        <img src="/images/help/3.6.3.png" class="img-xs" />
      </div>
      <div class="panel-ques" id="6">
        <h4 class="zl-title title-h4">6.服务启动失败，显示存储卷异常，但pvc与pv的绑定状态都正常</h4>
        <p>解决方法: 查看pvc绑定的pv，查看pv对应glusterfs中的vol_id，进入glusterfs容器，查看对应卷相关的brick状态是否正常</p>
        <pre> <p v-pre>glusterd volume status {{vol_id}}</p> </pre>
        <p>如果有离线状态的brick，启动离线的brick</p>
        <pre><p v-pre>glusterd volume start {{vol_id}} force</p></pre>
        <p>brick启动成功后，需手动触发卷heal</p>
        <pre><p v-pre>glusterd volume heal {{vol_id}}</p></pre>
        <p>确认heal完成</p>
        <pre><p v-pre>glusterd volume heal {{vol_id}} info</p></pre>
      </div>
      <div class="panel-ques" id="7">
        <h4 class="zl-title title-h4">7.通过访问权访问服务时，多次返回结果不一致，比如一会成功一会失败</h4>
        <p>解决及排查方法：确认对应服务的容器状态都正常，确认访问权对应的域名没有被其它访问权重复使用</p>
        <pre><p v-pre>kubectl get ingress --all-namespaces|grep {{对应域名}}</p></pre>
      </div>
    </div>
  </div>
</template>
<script type="text/javascript">
export default {
  data() {
    return {
    }
  }
}
</script>
<style rel="stylesheet/scss" lang="scss" scoped>
</style>
