2 回答

TA贡献1780条经验 获得超1个赞
要删除 pod:
err := client.CoreV1().Pods(i.Namespace).Delete(i.Name, metav1.DeleteOptions{})
if err != nil {
log.Fatal(err)
}
如果您升级client-go到最新版本,您还需要添加上下文作为参数。
err := client.CoreV1().Pods(i.Namespace).Delete(context.TODO(), i.Name, metav1.DeleteOptions{})
if err != nil {
log.Fatal(err)
}

TA贡献1802条经验 获得超5个赞
尽管Delete可能大部分时间都可以工作,但它并不能保证新的 Pod 不会被安排在同一个节点上。以下是人们应该如何处理这个问题:
污染节点并使其不可调度,以便将该节点从调度池中取出。
import (
"context"
"k8s.io/client-go/kubernetes"
meta_v1 "k8s.io/apimachinery/pkg/apis/meta/v1"
)
func CordonNode(client *kubernetes.Clientset, name string) error {
# Fetch node object
node, err := client.CoreV1().Nodes().Get(context.TODO(), name, meta_v1.GetOptions{})
if err != nil {
return err
}
node.Spec.Unschedulable = true
# Update the node
_, err = client.CoreV1().Nodes().Update(context.TODO(), node, meta_v1.UpdateOptions{})
return err
}
现在你有两个选择:
添加NoExecuteon 节点的 taint,kubelet 会为你从节点中驱逐所有工作负载。但是,容忍这种污点的 pod 仍将继续在节点上运行。
import (
"context"
"k8s.io/client-go/kubernetes"
meta_v1 "k8s.io/apimachinery/pkg/apis/meta/v1"
v1 "k8s.io/api/core/v1"
)
func TaintNode(client *kubernetes.Clientset, name string) error {
# Fetch node object
node, err := client.CoreV1().Nodes().Get(context.TODO(), name, meta_v1.GetOptions{})
node.Spec.Taints = append(node.Spec.Taints, v1.Taint{
Key: "someKey"
Value: "someValue"
Effect: v1.TaintEffectNoExecute
})
# Update the node
_, err = client.CoreV1().Nodes().Update(context.TODO(), node, meta_v1.UpdateOptions{})
return err
}
逐个逐出在该节点上运行的工作负载 pod。
import (
"context"
"k8s.io/client-go/kubernetes"
meta_v1 "k8s.io/apimachinery/pkg/apis/meta/v1"
policy "k8s.io/api/policy/v1beta1"
)
func EvictPod(client *kubernetes.Clientset, name, namespace string) error {
return client.PolicyV1beta1().Evictions(namespace).Evict(context.TODO(), &policy.Eviction{
ObjectMeta: meta_v1.ObjectMeta{
Name: name,
Namespace: namespace,
}
}
- 2 回答
- 0 关注
- 383 浏览
添加回答
举报