【Kubesphere】K8s容器無法訪問內網xx網絡問題

問題遇到的現象和發生背景

Kubesphere中運行的一個容器,可以ping通我們公司內網網段172.16.XX.XX,但是在容器內無法ping通192.168.5.XX,但是我在宿主機是可以ping通192.168.5.XX,這個192.168.5.XX是通過xx設備接進來的,所以可以在公司電腦或者我的宿主機直接ping通,但很奇怪在宿主機運行的docker容器卻沒辦法ping通
下圖為我宿主機的ip地址:

進入該容器
docker exec -it 044b132ecd51 /bin/sh
ping 192.168.5.10 ping不通

以下為跟蹤信息:

/usr/local/s2i #  traceroute 192.168.5.8   可以看到ping這個是ping不通
traceroute to 192.168.5.8 (192.168.5.8), 30 hops max, 46 byte packets1  172-16-2-238.node-exporter.kubesphere-monitoring-system.svc.cluster.local (172.16.2.238)  0.006 ms  0.003 ms  0.003 ms2  *  *  *3  *  *^C
/usr/local/s2i #  traceroute 172.16.0.231  ping這些網段是可以的
traceroute to 172.16.0.231 (172.16.0.231), 30 hops max, 46 byte packets1  172-16-2-238.node-exporter.kubesphere-monitoring-system.svc.cluster.local (172.16.2.238)  0.005 ms  0.003 ms  0.002 ms2  172.16.2.1 (172.16.2.1)  1.744 ms  1.982 ms  1.522 ms3  172.16.0.3 (172.16.0.3)  0.666 ms  0.647 ms  0.620 ms4  172.16.0.231 (172.16.0.231)  0.660 ms  3.151 ms  2.575 ms
/usr/local/s2i #  traceroute 172.17.0.1
traceroute to 172.17.0.1 (172.17.0.1), 30 hops max, 46 byte packets1  172.17.0.1 (172.17.0.1)  0.005 ms  0.005 ms  0.002 ms
/usr/local/s2i # ipaddr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
2: tunl0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN qlen 1000link/ipip 0.0.0.0 brd 0.0.0.0
4: eth0@if9: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1480 qdisc noqueue state UPlink/ether 82:06:25:b9:a9:22 brd ff:ff:ff:ff:ff:ffinet 192.168.26.37/32 scope global eth0valid_lft forever preferred_lft forever
/usr/local/s2i #

以下是我宿主機的docker網橋信息 用的都是默認的

[{"Name": "bridge","Id": "cd251d36987f690313634e20d0c453f427fb7ceb457c17513f3c96c58975f626","Created": "2022-06-01T17:16:44.57503358+08:00","Scope": "local","Driver": "bridge","EnableIPv6": false,"IPAM": {"Driver": "default","Options": null,"Config": [{"Subnet": "172.17.0.0/16","Gateway": "172.17.0.1"}]},"Internal": false,"Attachable": false,"Ingress": false,"ConfigFrom": {"Network": ""},"ConfigOnly": false,"Containers": {},"Options": {"com.docker.network.bridge.default_bridge": "true","com.docker.network.bridge.enable_icc": "true","com.docker.network.bridge.enable_ip_masquerade": "true","com.docker.network.bridge.host_binding_ipv4": "0.0.0.0","com.docker.network.bridge.name": "docker0","com.docker.network.driver.mtu": "1500"},"Labels": {}}
]

解決方法

添加自定義容器組IP池

宿主機:172.16.2.238

賬號:root 密碼:bigdata

進入該容器

docker exec -it 044b132ecd51 /bin/sh

ping 192.168.5.10

ping不通


問題點在于-》基礎環境:docker+K8S+kubesphere:使用kubesphere與k8s生成的容器無法訪問192.168.5.8

直接使用dokcer創建的容器,如zabbix,又可以ping通

bash-5.1$ ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
2: tunl0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN qlen 1000link/ipip 0.0.0.0 brd 0.0.0.0
60: eth0@if61: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue state UP link/ether 02:42:ac:11:00:03 brd ff:ff:ff:ff:ff:ffinet 172.17.0.3/16 brd 172.17.255.255 scope global eth0valid_lft forever preferred_lft forever
bash-5.1$ bash-5.1$ ping 192.168.5.8
PING 192.168.5.8 (192.168.5.8) 56(84) bytes of data.
64 bytes from 192.168.5.8: icmp_seq=1 ttl=124 time=8.00 ms
64 bytes from 192.168.5.8: icmp_seq=2 ttl=124 time=7.67 ms
64 bytes from 192.168.5.8: icmp_seq=3 ttl=124 time=8.23 ms
64 bytes from 192.168.5.8: icmp_seq=4 ttl=124 time=8.16 ms
64 bytes from 192.168.5.8: icmp_seq=5 ttl=124 time=7.54 ms
^C
--- 192.168.5.8 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 4006ms
rtt min/avg/max/mdev = 7.540/7.919/8.229/0.270 ms
bash-5.1$ 

K8S中運行的一個容器,可以ping通我們公司內網網段172.16.XX.XX,但是在容器內無法ping通192.168.5.XX,但是我在宿主機是可以ping通192.168.5.XX,這個192.168.5.XX聽網工說是通過什么xx設備接進來的,所以可以在公司電腦或者我的宿主機直接ping通,但很奇怪在宿主機運行的docker容器卻沒辦法ping通
下圖為我宿主機的ip地址:

進入該容器
docker exec -it 044b132ecd51 /bin/sh
ping 192.168.5.10 ping不通

以下為跟蹤信息:

/usr/local/s2i # traceroute 192.168.5.8 可以看到ping這個是ping不通

traceroute to 192.168.5.8 (192.168.5.8), 30 hops max, 46 byte packets

1 172-16-2-238.node-exporter.kubesphere-monitoring-system.svc.cluster.local (172.16.2.238) 0.006 ms 0.003 ms 0.003 ms

2 * * *

3 * *^C

/usr/local/s2i # traceroute 172.16.0.231 ping這些網段是可以的

traceroute to 172.16.0.231 (172.16.0.231), 30 hops max, 46 byte packets

1 172-16-2-238.node-exporter.kubesphere-monitoring-system.svc.cluster.local (172.16.2.238) 0.005 ms 0.003 ms 0.002 ms

2 172.16.2.1 (172.16.2.1) 1.744 ms 1.982 ms 1.522 ms

3 172.16.0.3 (172.16.0.3) 0.666 ms 0.647 ms 0.620 ms

4 172.16.0.231 (172.16.0.231) 0.660 ms 3.151 ms 2.575 ms

/usr/local/s2i # traceroute 172.17.0.1

traceroute to 172.17.0.1 (172.17.0.1), 30 hops max, 46 byte packets

1 172.17.0.1 (172.17.0.1) 0.005 ms 0.005 ms 0.002 ms

/usr/local/s2i # ipaddr

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000

link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever

2: tunl0@NONE: mtu 1480 qdisc noop state DOWN qlen 1000

link/ipip 0.0.0.0 brd 0.0.0.0

4: eth0@if9: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1480 qdisc noqueue state UP

link/ether 82:06:25:b9:a9:22 brd ff:ff:ff:ff:ff:ffinet 192.168.26.37/32 scope global eth0valid_lft forever preferred_lft forever

/usr/local/s2i #

以下是我宿主機的docker網橋信息 用的都是默認的

[
{"Name": "bridge","Id": "cd251d36987f690313634e20d0c453f427fb7ceb457c17513f3c96c58975f626","Created": "2022-06-01T17:16:44.57503358+08:00","Scope": "local","Driver": "bridge","EnableIPv6": false,"IPAM": {"Driver": "default","Options": null,"Config": [{"Subnet": "172.17.0.0/16","Gateway": "172.17.0.1"}]},"Internal": false,"Attachable": false,"Ingress": false,"ConfigFrom": {"Network": ""},"ConfigOnly": false,"Containers": {},"Options": {"com.docker.network.bridge.default_bridge": "true","com.docker.network.bridge.enable_icc": "true","com.docker.network.bridge.enable_ip_masquerade": "true","com.docker.network.bridge.host_binding_ipv4": "0.0.0.0","com.docker.network.bridge.name": "docker0","com.docker.network.driver.mtu": "1500"},"Labels": {}}

]

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/93896.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/93896.shtml
英文地址,請注明出處:http://en.pswp.cn/web/93896.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

【開發語言】Groovy語言:Java生態中的動態力量

博客目錄一、Groovy 的誕生與發展二、核心特性深度解析1. 與 Java 的無縫集成2. 動態類型與可選靜態類型3. 強大的集合操作三、Groovy 在實際開發中的應用場景1. 構建自動化&#xff08;Gradle&#xff09;2. 測試開發&#xff08;Spock 框架&#xff09;3. 腳本任務自動化四、…

Obsidian 1.9.10升級

概述 Obsidian發布了更新版本1.9.10&#xff0c;是一次比較大的升級&#xff0c;尤其是增加了一些以前沒有的核心插件&#xff0c;尤其是重磅的數據庫功能。雖然可能還是比較初期&#xff0c;但是這意味著OB還是往更好的方向進化了。 本文以一些目前的視頻教程加自己的實際上手…

內容審計技術

一、 內容審計需求背景1.網絡安全法要求明確責任人&#xff1a;制定內部安全管理制度和操作規程&#xff0c;落實安全保護責任。監測、記錄并保留日志&#xff1a;采取監測、記錄網絡運行狀態、網絡安全事件的技術措施&#xff0c;并按照規定留存相關網絡日志不少于六個月。采取…

反序列化漏洞

php反序列化 1.什么是序列化和反序列化 office word是程序 doc/docx是數據 保存word文件&#xff1a;程序--保存(序列化)-->數據文件 打開word文件&#xff1a;程序--加載數據文件-->還原(反序列化) 游戲存檔&#xff1a;角色等級&#xff0c;任務&#xff0c;人物坐…

Lecture 4 Mixture of experts課程筆記

什么是MoE?用&#xff08;多個&#xff09;大型前饋網絡和一個選擇器層取代大型前饋網絡。你可以在不影響浮點運算次數的情況下增加專家數量。 MoE受歡迎的原因 相同的浮點運算次數&#xff0c;更多的參數表現更好訓練混合專家模型&#xff08;MoEs&#xff09;速度更快訓練混…

微服務架構的演進:從 Spring Cloud Netflix 到云原生新生態

過去十年,Spring Cloud 憑借 Netflix 全家桶(Eureka、Ribbon、Hystrix、Zuul 等)幾乎成為 Java 微服務的事實標準。但隨著這些核心組件逐步停止更新或進入維護模式,微服務架構正經歷一場深刻的演進。新的微服務架構更加注重 云原生兼容性、社區活躍度、企業級穩定性和低運維…

網絡流量分析——基礎知識

文章目錄所需技能和知識TCP/IP 堆棧和 OSI 模型基本網絡概念常用端口和協議IP 數據包和子層的概念協議傳輸封裝環境與設備常見的流量分析工具BPF 語法執行網絡流量分析NTA工作流程NTA工作流程網絡 - 第 1-4 層OSI / TCP-IP 模型尋址機制MAC地址IP 尋址IPv4IPv6IPv6 尋址類型IPv…

ansible playbook 實戰案例roles | 實現基于 IHS 的 AWStats 訪問監控系統

文章目錄一、核心功能描述二、roles內容2.1 文件結構2.2 主配置文件2.3 tasks文件內容三、files文件內容四、關鍵價值免費個人運維知識庫&#xff0c;歡迎您的訂閱&#xff1a;literator_ray.flowus.cn 一、核心功能描述 這個 Ansible Role 的核心功能是&#xff1a;?實現 ?…

DELL服務器 R系列 IPMI的配置

1、iDRAC功能默認都是關閉&#xff0c;需要在BIOS面啟用&#xff0c;首先重啟計算機&#xff0c;按F2然后進入BIOS&#xff0c;選擇iDRAC Setting進行iDRAC配置 2、重置一下idrac卡-重置才能恢復默認密碼 3、進入iDRAC Setting之后&#xff0c;選擇設置網絡Network 4、啟用iDRA…

模式組合應用-橋接模式(一)

寫在前面Hello&#xff0c;我是易元&#xff0c;這篇文章是我學習設計模式時的筆記和心得體會。如果其中有錯誤&#xff0c;歡迎大家留言指正&#xff01;文章為設計模式間的組合使用&#xff0c;涉及代碼較多&#xff0c;個人覺得熟能生巧&#xff0c;希望自己能從中學習到新的…

【clion】visual studio的sln轉cmakelist并使用clion構建32位

我想在linux上運行,所以先轉為cmake工程 例如可以把exe mfc 部分不構建,這樣ubuntu就不用移植。 先轉cmakelist,而后clion完成win32的構建,與vs構建對比,驗證腳本正確性。 Vcxproj2CMake https://github.com/gns333/Vcxproj2CMake cmakeconverter https://github.com/pave…

MySQL之分區功能

序言 隨著業務發展&#xff0c;我們維護的項目數據庫中的數據可能會越來越大&#xff0c;那么單張表的數據變多后&#xff0c;接口查詢效率可能會變慢&#xff0c;那我們就直接照抄大廠常見的分庫分表嗎&#xff1f;—— 當然不是的&#xff0c;分庫分表不是萬能的。 分庫分表…

java_spring boot 中使用 log4j2 及 自定義layout設置示例

1. log4j2對比 原始Logback 優勢 對于 Spring Boot 3.x&#xff0c;Logback 是默認日志框架&#xff0c;但在高并發、異步日志場景下&#xff0c;Log4j2 通常表現更優。當業務百萬級用戶、微服務、日志量大時&#xff1a; ? 1. Logback&#xff08;默認 Spring Boot 集成&am…

記錄Webapi Excel 導出

文章目錄1、helper2、control3、前端 axios記錄webapi excel 導出File示例.NET8.0 NPOI2.731、helper using NPOI.SS.UserModel; using NPOI.XSSF.UserModel; using System.Data; using System.IO; /// <summary> /// 導出EXCEL /// </summary> public class Exce…

VPS服務器安全審計方案:從風險評估到防護實施

隨著云計算技術的快速發展&#xff0c;VPS服務器已成為企業信息化建設的重要基礎設施。隨之而來的安全威脅也日益增多&#xff0c;如何通過專業的安全審計方案保障VPS服務器的穩定運行成為關鍵課題。本文將系統闡述從漏洞掃描到應急響應的全周期安全審計實施策略&#xff0c;幫…

libmicrohttpd 入門

libmicrohttpd 是一個小型的 C 庫&#xff0c;用于在項目中嵌入 HTTP 服務器功能。它設計簡單、輕量級&#xff0c;適合需要 HTTP 接口但不想要大型 Web 服務器開銷的應用程序。 安裝 libmicrohttpd Linux 系統 在基于 Debian/Ubuntu 的系統上&#xff1a; bash sudo apt-…

【網絡】使用 DNAT 進行負載均衡時,若未配置配套的 SNAT,回包失敗

【網絡】iptables 1 概念 【網絡】iptables 2 查看規則 【網絡】使用 DNAT 進行負載均衡時&#xff0c;若未配置配套的 SNAT&#xff0c;回包失敗 【網絡】回包路由原理 使用 DNAT 進行負載均衡時&#xff0c;若未配置配套的 SNAT&#xff0c;后端服務器將直接回包給客戶端&am…

深入解析GCC:從編譯原理到嵌入式底層實戰

繼續更新編譯器底層系列&#xff01;&#xff01;&#xff01;硬核C語言的屠龍之術&#xff1a;從GCC到匯編的底層征途&#xff08;一&#xff09;總綱&#xff1a; 恭喜你&#xff0c;決定踏上這條通往嵌入式大佬的硬核之路。這條路的起點&#xff0c;不是C語言的語法書&#…

最新MySQL面試題(2025超詳細版)

2025最新超詳細MySQL面試題 文章目錄2025最新超詳細MySQL面試題[toc]一、 SQL 和基本操作1. SQL的執行順序2. 如何優化MySQL查詢3. 常用的聚合函數4. 數據庫事務5. 事務的四大特性(ACID)6. 視圖7. MySQL中使用LIMIT子句進行分頁8. MySQL中使用變量和用戶定義的函數9. MySQL中的…

Spring Retry實戰指南_讓你的應用更具韌性

1 Spring Retry概述 1.1 什么是Spring Retry Spring Retry是Spring生態系統中的一個重要組件,專門用于處理應用程序中的重試邏輯。在分布式系統和微服務架構中,網絡通信、外部服務調用、數據庫訪問等操作都可能因為各種原因而失敗,如網絡抖動、服務暫時不可用、資源競爭等…