pytorch模型保存與載入中的一些問題實戰記錄
本篇文章為大家帶來了關於Python的相關知識,其中主要介紹了關於pytorch模型保存與加載中的一些問題實戰記錄,下面一起來看一下,希望對大家有幫助。
【相關推薦:Python3影片教學 】
一、torch中模型保存與載入的方式
1、模型參數和模型結構保存與載入
torch.save(model,path) torch.load(path)
2、只儲存模型的參數和載入-這種方式比較安全,但是比較稍微麻煩一點點
torch.save(model.state_dict(),path) model_state_dic = torch.load(path) model.load_state_dic(model_state_dic)
二、 torch中模型保存與載入出現的問題
1、單卡模型下儲存模型結構、參數後載入出現的問題
模型儲存的時候會把模型結構定義檔路徑記錄下來,載入的時候就會根據路徑解析它然後裝載參數;當把模型定義檔案路徑修改以後,使用torch.load(path)就會報錯。
#把model資料夾修改成models後,再載入就會報錯。
import torch from model.TextRNN import TextRNN load_model = torch.load('experiment_model_save/textRNN.bin') print('load_model',load_model)
這種保存完整模型結構與參數的方式,一定不要改變模型定義檔路徑。
2、多卡機器單卡訓練模型保存後在單卡機器上載入會報錯
在多卡機器上有多張顯示卡0號開始,現在模型在n>= 1上的顯示卡訓練儲存後,拷貝在單卡機器上載入
import torch from model.TextRNN import TextRNN load_model = torch.load('experiment_model_save/textRNN_cuda_1.bin') print('load_model',load_model)
#會出現cuda device不符的問題-你儲存的模碼段小部件型是使用的cuda1,那麼採用torch.load()開啟的時候,會預設的去尋找cuda1,然後把模型載入到該裝置上。這時候可以直接使用map_location來解決,把模型載入到CPU上即可。
load_model = torch.load('experiment_model_save/textRNN_cuda_1.bin',map_location=torch.device('cpu'))
3、多卡訓練模型保存模型結構和參數後加載出現的問題
當用多GPU同時訓練模型之後,不管是採用模型結構和參數一起保存還是單獨保存模型參數,然後在單卡下載入都會出現問題
a、模型結構和參數一起保然後在載入
torch.distributed.init_process_group(backend='nccl')
模型訓練的時候採用上述多進程的方式,所以你在載入的時候也要聲明,不然就會報錯。
b、單獨保存模型參數
model = Transformer(num_encoder_layers=6,num_decoder_layers=6) state_dict = torch.load('train_model/clip/experiment.pt') model.load_state_dict(state_dict)
同樣會出現問題,不過這裡出現的問題是參數字典的key和模型定義的key不一樣
原因是多GPU訓練下,使用分散式訓練的時候會給模型一個包裝,程式碼如下:
model = torch.load('train_model/clip/Vtransformers_bert_6_layers_encoder_clip.bin') print(model) model.cuda(args.local_rank) 。。。。。。 model = nn.parallel.DistributedDataParallel(model,device_ids=[args.local_rank],find_unused_parameters=True) print('model',model)
包裝前的模型結構:
包裝後的模型
在外層多了DistributedDataParallel以及module,所以才會導致在單卡環境下載入模型權重的時候出現權重的keys不一致。
三、正確的保存模型和載入的方法
if gpu_count > 1: torch.save(model.module.state_dict(),save_path) else: torch.save(model.state_dict(),save_path) model = Transformer(num_encoder_layers=6,num_decoder_layers=6) state_dict = torch.load(save_path) model.load_state_dict(state_dict)
這樣就是比較好的範式,載入不會出錯。
【相關推薦:Python3影片教學 】
以上是pytorch模型保存與載入中的一些問題實戰記錄的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

PHP主要是過程式編程,但也支持面向對象編程(OOP);Python支持多種範式,包括OOP、函數式和過程式編程。 PHP適合web開發,Python適用於多種應用,如數據分析和機器學習。

PHP適合網頁開發和快速原型開發,Python適用於數據科學和機器學習。 1.PHP用於動態網頁開發,語法簡單,適合快速開發。 2.Python語法簡潔,適用於多領域,庫生態系統強大。

在 Sublime Text 中運行 Python 代碼,需先安裝 Python 插件,再創建 .py 文件並編寫代碼,最後按 Ctrl B 運行代碼,輸出會在控制台中顯示。

PHP起源於1994年,由RasmusLerdorf開發,最初用於跟踪網站訪問者,逐漸演變為服務器端腳本語言,廣泛應用於網頁開發。 Python由GuidovanRossum於1980年代末開發,1991年首次發布,強調代碼可讀性和簡潔性,適用於科學計算、數據分析等領域。

Python更適合初學者,學習曲線平緩,語法簡潔;JavaScript適合前端開發,學習曲線較陡,語法靈活。 1.Python語法直觀,適用於數據科學和後端開發。 2.JavaScript靈活,廣泛用於前端和服務器端編程。

Golang在性能和可擴展性方面優於Python。 1)Golang的編譯型特性和高效並發模型使其在高並發場景下表現出色。 2)Python作為解釋型語言,執行速度較慢,但通過工具如Cython可優化性能。

在 Visual Studio Code(VSCode)中編寫代碼簡單易行,只需安裝 VSCode、創建項目、選擇語言、創建文件、編寫代碼、保存並運行即可。 VSCode 的優點包括跨平台、免費開源、強大功能、擴展豐富,以及輕量快速。

在 Notepad 中運行 Python 代碼需要安裝 Python 可執行文件和 NppExec 插件。安裝 Python 並為其添加 PATH 後,在 NppExec 插件中配置命令為“python”、參數為“{CURRENT_DIRECTORY}{FILE_NAME}”,即可在 Notepad 中通過快捷鍵“F6”運行 Python 代碼。
