亚欧色一区w666天堂,色情一区二区三区免费看,少妇特黄A片一区二区三区,亚洲人成网站999久久久综合,国产av熟女一区二区三区

  • 發布文章
  • 消息中心
點贊
收藏
評論
分享
原創

jupyterlab, pytorch鏡像分層

2024-07-03 09:52:35
11
0

背景

pytorch鏡(jing)像(xiang)從pytorch docker hub(開發(fa)版(ban)本,大小(xiao)大概17G)拉取(qu),在該(gai)鏡(jing)像(xiang)的(de)基礎上開發(fa)會(hui)持續增大鏡(jing)像(xiang)大小(xiao),導致(zhi)的(de)結果就是(shi)大小(xiao)可能(neng)到20G。在實際生產中發(fa)現拉取(qu)鏡(jing)像(xiang)的(de)時間可能(neng)會(hui)超過10分鐘,原因(yin)是(shi)pod分配的(de)節點未有(you)鏡(jing)像(xiang)緩存,從最(zui)底(di)層開始拉取(qu)。

kubelet清理(li)docker鏡像(xiang)(xiang)的(de)機制。在(zai)磁(ci)(ci)盤使用(yong)率(lv)超出(chu)設(she)定(ding)上(shang)限(xian)后,首(shou)先,通(tong)過(guo) CRI 容(rong)(rong)(rong)器運(yun)行時接口讀取(qu)節點上(shang)的(de)所有(you)鏡像(xiang)(xiang)以及(ji) Pod 容(rong)(rong)(rong)器;然后,根據現有(you)容(rong)(rong)(rong)器列表過(guo)濾出(chu)那些已經(jing)不被(bei)任何容(rong)(rong)(rong)器所使用(yong)的(de)鏡像(xiang)(xiang);接著,按照(zhao)(zhao)鏡像(xiang)(xiang)最(zui)近(jin)被(bei)使用(yong)時間(jian)排序,越(yue)久被(bei)用(yong)到的(de)鏡像(xiang)(xiang)越(yue)會(hui)被(bei)排在(zai)前面,優先清理(li);最(zui)后,就(jiu)按照(zhao)(zhao)排好的(de)順序逐個清理(li)鏡像(xiang)(xiang),直到磁(ci)(ci)盤使用(yong)率(lv)降(jiang)到設(she)定(ding)下限(xian)(或者已經(jing)沒有(you)空閑(xian)鏡像(xiang)(xiang)可以清理(li))。

根據kubelet的清理(li)策略以及當前(qian)鏡(jing)(jing)像(xiang)的大小,在數據盤使(shi)用率超過(guo)一定的限額,kubelet會清理(li)最近(jin)最久未(wei)使(shi)用的鏡(jing)(jing)像(xiang)。后續(xu)再(zai)拉取該(gai)鏡(jing)(jing)像(xiang),并且沒有共用層(ceng),就會重新拉取。

鏡像分層

cuda, 框架以及(ji)ide多(duo)種組合關系(xi),造成鏡像種類太多(duo)。

 

規則:最小(xiao)的鏡像應該滿足大部(bu)分人的需(xu)求。不經常(chang)改變的放置底層,不常(chang)用(yong)功能放置高層。在實際使用(yong)conda環境下的cudatoolkit已(yi)經能滿足大部(bu)分的要求。

  • next layer + ide : 安裝 在線ide
  • conda: cuda toolkit : 安裝anaconda,創建base基礎環境,包括基本的python包和cuda toolkit
  • next layer + conda: torch :   安裝 ai框架
  • next layer + plugin : 安裝 插件
  • next layer + cuda runtime: 安裝 cuda 運行時包在系統環境
  • next layer + cuda complier: 安裝 cuda  編譯工具在系統環境, 可以從源代碼編譯出cuda應用程序

 

0條評論
作者已關閉評論
hrn
4文章數
0粉絲數(shu)
hrn
4 文章 | 0 粉絲
hrn
4文章數
0粉絲(si)數
hrn
4 文(wen)章 | 0 粉絲
原創

jupyterlab, pytorch鏡像分層

2024-07-03 09:52:35
11
0

背景

pytorch鏡(jing)(jing)像(xiang)從pytorch docker hub(開(kai)發(fa)版本,大小(xiao)大概17G)拉取(qu),在(zai)該(gai)鏡(jing)(jing)像(xiang)的基礎上(shang)開(kai)發(fa)會持(chi)續增(zeng)大鏡(jing)(jing)像(xiang)大小(xiao),導(dao)致的結果(guo)就(jiu)是(shi)大小(xiao)可能到(dao)20G。在(zai)實際生產中(zhong)發(fa)現拉取(qu)鏡(jing)(jing)像(xiang)的時間可能會超(chao)過10分(fen)鐘,原因(yin)是(shi)pod分(fen)配的節點未有鏡(jing)(jing)像(xiang)緩(huan)存,從最底層開(kai)始拉取(qu)。

kubelet清理(li)(li)docker鏡(jing)(jing)像(xiang)的(de)(de)機制。在(zai)(zai)磁(ci)盤(pan)使(shi)用率(lv)超出設定上限后,首先,通過(guo) CRI 容器(qi)運行時接口讀(du)取節點上的(de)(de)所有(you)鏡(jing)(jing)像(xiang)以(yi)及 Pod 容器(qi);然后,根(gen)據現有(you)容器(qi)列表(biao)過(guo)濾出那些已經不被任何容器(qi)所使(shi)用的(de)(de)鏡(jing)(jing)像(xiang);接著,按照(zhao)鏡(jing)(jing)像(xiang)最近被使(shi)用時間(jian)排序(xu),越(yue)久被用到(dao)的(de)(de)鏡(jing)(jing)像(xiang)越(yue)會被排在(zai)(zai)前面,優先清理(li)(li);最后,就按照(zhao)排好的(de)(de)順序(xu)逐(zhu)個清理(li)(li)鏡(jing)(jing)像(xiang),直到(dao)磁(ci)盤(pan)使(shi)用率(lv)降到(dao)設定下限(或者已經沒有(you)空閑鏡(jing)(jing)像(xiang)可(ke)以(yi)清理(li)(li))。

根據kubelet的(de)(de)(de)清理(li)(li)策略以(yi)及當前鏡像(xiang)的(de)(de)(de)大小(xiao),在數(shu)據盤使(shi)用率(lv)超過一定的(de)(de)(de)限額(e),kubelet會清理(li)(li)最近最久未使(shi)用的(de)(de)(de)鏡像(xiang)。后續再拉(la)取該鏡像(xiang),并且沒有共(gong)用層,就(jiu)會重新(xin)拉(la)取。

鏡像分層

cuda, 框架以(yi)及ide多種組合關系(xi),造成鏡像種類太多。

 

規則:最小(xiao)的鏡像(xiang)應該滿足(zu)大部分人的需求(qiu)。不經(jing)(jing)常改(gai)變的放置底層,不常用(yong)功(gong)能(neng)放置高層。在實際使用(yong)conda環境下(xia)的cudatoolkit已經(jing)(jing)能(neng)滿足(zu)大部分的要求(qiu)。

  • next layer + ide : 安裝 在線ide
  • conda: cuda toolkit : 安裝anaconda,創建base基礎環境,包括基本的python包和cuda toolkit
  • next layer + conda: torch :   安裝 ai框架
  • next layer + plugin : 安裝 插件
  • next layer + cuda runtime: 安裝 cuda 運行時包在系統環境
  • next layer + cuda complier: 安裝 cuda  編譯工具在系統環境, 可以從源代碼編譯出cuda應用程序

 

文章來自個人專欄
文(wen)章 | 訂閱
0條評論
作者已關閉評論
作者已關閉評論
0
0