redhat:openshift-redhat:dailybusiness-openshift

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
redhat:openshift-redhat:dailybusiness-openshift [2019/04/04 13:13]
michael
redhat:openshift-redhat:dailybusiness-openshift [2020/12/10 13:07]
michael
Line 46: Line 46:
 </WRAP> </WRAP>
  
-===== Ressourcen von einem Projekt wiederherstellen =====+ 
 +===== Cluster Project Administration ===== 
 + 
 +<WRAP center box 100%> 
 +==== Set Timeout on OpenShift route ==== 
 + 
 +Jenkins has some pages, like the system configuration or the plugin overview, that take up to a minute for displaying. With the default settings on the OpenShift reverse proxy the request will be canceled after several seconds. You may set a new timeout on the route for your Jenkins instance to wait for the page to load: 
 + 
 +<code># oc annotate route <instance-name>-cing-helm --overwrite haproxy.router.openshift.io/timeout=60s</code> 
 + 
 +If a minute is not enough to load the page feel free to set the value higher. 
 +</WRAP> 
 + 
 + 
 +===== Cluster Administration ===== 
 + 
 + 
 + 
 + 
 +===== Cluster Debugging ===== 
 + 
 + 
 +<WRAP center box 100%> 
 +==== Kube Config wiederherstellen ==== 
 + 
 +Funktioniert der ''oc get'' command nicht mehr korrekt, oder besser gesagt wird hier ein Passwort verlangt, so ist die Kube Config verschossen.. Ein gültiges Backup befindet sich hier: ''/etc/origin/master/admin.kubeconfig'' 
 + 
 +<code># cp /etc/origin/master/admin.kubeconfig .kube/config</code> 
 +</WRAP> 
 + 
 + 
 +<WRAP center box 100%> 
 +==== Kube Config wiederherstellen ==== 
 + 
 +Funktioniert der ''oc get'' command nicht mehr korrekt, oder besser gesagt wird hier ein Passwort verlangt, so ist die Kube Config verschossen.. Ein gültiges Backup befindet sich hier: ''/etc/origin/master/admin.kubeconfig'' 
 + 
 +<code># cp /etc/origin/master/admin.kubeconfig .kube/config</code> 
 +</WRAP> 
 + 
 + 
 + 
 + 
 +===== Firmenspezifische Doku's ===== 
 + 
 +<WRAP center box 100%> 
 +==== Ressourcen von einem Projekt wiederherstellen ==== 
  
 Bei der Post läuft täglich um 24:00 ein cronjob, der alle wichtigen Projekt-Ressourcen täglich exportiert: Bei der Post läuft täglich um 24:00 ein cronjob, der alle wichtigen Projekt-Ressourcen täglich exportiert:
Line 129: Line 175:
  
 <code># oc create -f "Backup file in yaml" -n "namespace"</code> <code># oc create -f "Backup file in yaml" -n "namespace"</code>
 +</WRAP>
  
-===== Problem OpenShift GlusterFS (nicht mehr im HP OVO) ===== 
- 
-Das Überwachungsskript(/root/openshift-script/check_gluster_volumes.sh) hat folgende E-Mail in die Mailbox SMSOPENSHIFTDL@post.ch gesendet. 
-Dieselbe Fehlermeldung wird auch im HP-OVO Monitoring angezeigt. 
- 
-Development Platform > DailyBusiness > 1.png 
- 
- 
- 
-Auf dem Glusternode vekq7k wurde wegen eines anderen Fehler ein Neustart des Servers gemacht. Anschliessend konnte GlusterFS nicht vollständig gestartet werden. 
-Somit muss das GlusterFS auf auf dem gluster-pv101 forciert neu gestartet werden: 
- 
-[root@vekq7k ~]# gluster volume status gluster-pv101 
-Status of volume: gluster-pv101 
-Gluster process                             TCP Port  RDMA Port  Online  Pid 
------------------------------------------------------------------------------- 
-Brick vhmsgj.pnet.ch:/data/gluster-pv101/br 
-ick                                         49152              Y       6846 
-Brick vkyg7l.pnet.ch:/data/gluster-pv101/br 
-ick                                         49152              Y       4553 
-Brick vsytjw.pnet.ch:/data/gluster-pv101/br 
-ick                                         49152              Y       4939 
-Brick vu32g5.pnet.ch:/data/gluster-pv101/br 
-ick                                         49152              Y       6774 
-Brick vpva0p.pnet.ch:/data/gluster-pv101/br 
-ick                                         49152              Y       8864 
-Brick vekq7k.pnet.ch:/data/gluster-pv101/br 
-ick                                         49202              Y       82665 
-Brick vlf5eh.pnet.ch:/data/gluster-pv101/br 
-ick                                         49152              Y       103339 
-Brick vw7w5k.pnet.ch:/data/gluster-pv101/br 
-ick                                         49152              Y       6902 
-Brick v2o8fv.pnet.ch:/data/gluster-pv101/br 
-ick                                         49152              Y       3353 
-Self-heal Daemon on localhost               N/      N/       Y       82687 
-Self-heal Daemon on v2o8fv.pnet.ch          N/A       N/       Y       42526 
-Self-heal Daemon on vs3tvs.pnet.ch          N/A       N/       Y       99276 
-Self-heal Daemon on vw7w5k.pnet.ch          N/A       N/       Y       18084 
-Self-heal Daemon on vsytjw.pnet.ch          N/A       N/       Y       4673 
-Self-heal Daemon on vhmsgj.pnet.ch          N/A       N/       Y       31894 
-Self-heal Daemon on vlf5eh.pnet.ch          N/A       N/       Y       22477 
-Self-heal Daemon on vkyg7l.pnet.ch          N/A       N/       Y       57012 
-Self-heal Daemon on vpva0p.pnet.ch          N/A       N/       Y       37754 
-Self-heal Daemon on vu32g5.pnet.ch          N/A       N/       Y       85923 
-Self-heal Daemon on vthbcn.pnet.ch          N/A       N/       Y       117650 
- 
-Task Status of Volume gluster-pv101 
------------------------------------------------------------------------------- 
-There are no active volume tasks 
- 
-[root@vekq7k ~]# gluster volume start gluster-pv101  force 
- 
-===== Kube Config wiederherstellen ===== 
- 
-Funktioniert der ''oc get'' command nicht mehr korrekt, oder besser gesagt wird hier ein Passwort verlangt, so ist die Kube Config verschossen.. Ein gültiges Backup befindet sich hier: ''/etc/origin/master/admin.kubeconfig'' 
- 
-<code># cp /etc/origin/master/admin.kubeconfig .kube/config</code> 
- 
- 
----- 
  
-===== OpenShift Gluster Volume extend - over heketi =====+<WRAP center box 100%> 
 +==== OpenShift Gluster Volume extend - over heketi ====
  
 Eine zusätzliche Terabyte Disk auf dem Gluster Cluster via Heketi einbinden: (siehe auch : [[https://access.redhat.com/solutions/3164841]]) Eine zusätzliche Terabyte Disk auf dem Gluster Cluster via Heketi einbinden: (siehe auch : [[https://access.redhat.com/solutions/3164841]])
Line 234: Line 222:
   Total: 3 [2.03 TiB] / in use: 3 [2.03 TiB] / in no VG: 0 [0   ]   Total: 3 [2.03 TiB] / in use: 3 [2.03 TiB] / in no VG: 0 [0   ]
 </sxh> </sxh>
- 
- 
-===== Neuer Host zu existierenden Cluster hinzufügen ===== 
- 
-Red Hat Anleitung: [[https://docs.openshift.com/container-platform/3.10/install_config/adding_hosts_to_existing_cluster.html]] 
- 
-Bevor der neue Host dem Cluster hinzugefügt werden kann, muss dieser die nötigen OpenShift Pakete erhalten.  Hierzu muss das Package "atomic-openshift-utils" installiert werden.  
-Jedoch wird dieses im offiziellen Repo nur bis zur Version 3.9 gepflegt. Deshalb müssen zuerst unter /etc/yum.repos.d/ose.repo die 3.9 OpenShift Repos angehängt werden. Erst danach kann das neuste Paket mit yum installiert werden:  
- 
-<sxh bash> 
-[root@new_host]# cat /etc/yum.repos.d/ose.repo 
-[rhel-7-server-ose310-rpms] 
-baseurl = http://vinstp.pnet.ch/distributor/testing/rhel7-server-$basearch/ose/3.10 
-enabled = 1 
-gpgcheck = 1 
-gpgkey = file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release 
-name = Red Hat OpenShift Container Platform 3.10 (RPMs) 
- 
-[rhel-7-server-ose39-rpms] 
-baseurl = http://vinstp.pnet.ch/distributor/testing/rhel7-server-$basearch/ose/3.9 
-enabled = 1 
-gpgcheck = 1 
-gpgkey = file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release 
-name = Red Hat OpenShift Container Platform 3.9 (RPMs) 
-</sxh> 
- 
-<code>[root@new_host]# yum install atomic-openshift-utils -y 
-[root@new_host]# systemctl reboot</code> 
- 
- 
-Der Host ist nun für die Integration bereit. Jetzt muss noch das Hostfile dementsprechend angepasst werden: 
- 
-<sxh bash> 
-[rebermi@vosbh1]# cat openshift-hostfiles/hosts_shared.yml 
---- 
-all: 
-  children: 
-    OSEv3: 
-      children: 
-        bastion: {} 
-        glusterfs: {} 
-        glusterfs_registry: {} 
-        etcd: {} 
-        masters: {} 
-        nodes: 
-          children: 
-            masters: {} 
-            infra_nodes: {} 
-            user_nodes: {} 
-            new_nodes: {}  <--- 
-... 
-    user_nodes: 
-      hosts: 
-        EXISTING_HOSTS.pnet.ch: 
-          openshift_hostname: vosne1.pnet.ch 
-          openshift_ip: 172.18.184.14 
-          openshift_node_group_name: node-config-compute-eh-prod 
-          openshift_node_local_quota_per_fsgroup: 1Gi 
-    new_nodes: <--- 
-      hosts: 
-        NEW_HOST.pnet.ch: 
-          openshift_hostname: NEW_HOST.pnet.ch 
-          openshift_ip: IP_ADRESS 
-          openshift_node_group_name: node-config-compute-eh-test 
-          openshift_node_local_quota_per_fsgroup: 1Gi 
-</sxh> 
- 
-Zum Schluss wird nun das Scaleup Playbook von Red Hat ausgeführt: 
- 
-<code># ansible-playbook [-i /path/to/file] /usr/share/ansible/openshift-ansible/playbooks/openshift-node/scaleup.yml</sxh> 
- 
-Damit auch Pods auf dem neuen Cluster-Node erstellt werden, müssen die LABELS auf dem Node angepasst werden: 
- 
-<code>[user@vosbh1 ~]$ oc login https://plattform.pnet.ch 
-[user@vosbh1 ~]$ oc get nodes --show-labels</code> 
- 
-# Man kann jetzt die Labels eines bereits integrierten Node kopieren und folgendermassen beim neuen Node setzen: 
- 
-<code>[user@vosbh1 ~]$ oc label node NEWNODE compute=true 
-[user@vosbh1 ~]$ oc label node NEWNODE region=primary 
-[user@vosbh1 ~]$ oc label node NEWNODE stage=test 
-[user@vosbh1 ~]$ oc label node NEWNODE zone=defaul</code> 
- 
- 
----- 
- 
- 
- 
-<WRAP center round important 60%> 
-''**Everyting below here is depricated!**'' 
 </WRAP> </WRAP>
- 
- 
-===== Gluster PV Administration (mit heketi) ===== 
- 
  
  
  • redhat/openshift-redhat/dailybusiness-openshift.txt
  • Last modified: 2020/12/10 13:07
  • by michael