書馨卡幫你省薪 2024個人購書報告 2024中圖網(wǎng)年度報告
歡迎光臨中圖網(wǎng) 請 | 注冊
> >
PYTORCH深度學(xué)習(xí)指南:編程基礎(chǔ) 卷I

PYTORCH深度學(xué)習(xí)指南:編程基礎(chǔ) 卷I

出版社:機(jī)械工業(yè)出版社出版時間:2024-03-01
開本: 16開 頁數(shù): 182
中 圖 價:¥66.3(6.7折) 定價  ¥99.0 登錄后可看到會員價
加入購物車 收藏
運(yùn)費(fèi)6元,滿39元免運(yùn)費(fèi)
?新疆、西藏除外
本類五星書更多>
買過本商品的人還買了

PYTORCH深度學(xué)習(xí)指南:編程基礎(chǔ) 卷I 版權(quán)信息

PYTORCH深度學(xué)習(xí)指南:編程基礎(chǔ) 卷I 本書特色

國外Pytorch深度學(xué)習(xí)暢銷書 全彩印刷
作者擁有20余年從業(yè)經(jīng)驗
“PyTorch深度學(xué)習(xí)指南”叢書循序漸進(jìn)地詳細(xì)講解了與深度學(xué)習(xí)相關(guān)的重要概念、算法和模型,并著重展示了PyTorch是如何實現(xiàn)這些算法和模型的。其共分三卷:編程基礎(chǔ)、計算機(jī)視覺、序列與自然語言處理。
本書適用于對深度學(xué)習(xí)感興趣,并希望使用PyTorch實現(xiàn)深度學(xué)習(xí)的Python程序員閱讀。

以下是部分國外讀者書評:
Mike:語言通俗易懂,易于吸收和理解,沒有長篇大論,也沒有太多的數(shù)學(xué)符號,只在極少數(shù)情況下才在文中使用,確實很有幫助。作者帶你了解如何在沒有Torch的情況下首先構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò),以及梯度下降之類的事情是如何運(yùn)作的。
Mark:這本書很棒!我能夠在幾天內(nèi)讀完它,它非常容易理解。我很熟悉scikit-learn,已經(jīng)用了幾年了,所以這本書是一種快速適應(yīng)PyTorch的方法。對ML概念的回顧足夠深入,所以我理解了代碼。我現(xiàn)在開始讀第二卷!

TS.:這本書不只是把代碼推到你面前,它解釋了事物在引擎蓋下是如何工作的。我非常喜歡這種風(fēng)格,所以我把這本書及其第二卷作為我的ECE655高級GPU編程和深度學(xué)習(xí)課程的教材。

Jesse:我喜歡這位作家的風(fēng)格。他從深度學(xué)習(xí)背后的基本概念開始,帶領(lǐng)你從自己硬編碼梯度下降到使用PyTorch高效實現(xiàn),逐步提高抽象和復(fù)雜性。*后,你將能夠在PyTorch中編寫一個干凈緊湊的模型,并且了解每個子組件在后臺做什么。

PYTORCH深度學(xué)習(xí)指南:編程基礎(chǔ) 卷I 內(nèi)容簡介

“PyTorch深度學(xué)習(xí)指南”叢書循序漸進(jìn)地詳細(xì)講解了與深度學(xué)習(xí)相關(guān)的重要概念、算法和模型,并著重展示了PyTorch是如何實現(xiàn)這些算法和模型的。其共分三卷:編程基礎(chǔ)、計算機(jī)視覺、序列與自然語言處理。
本書為該套叢書的**卷:編程基礎(chǔ)。本書主要介紹了梯度下降和PyTorch的Autograd;訓(xùn)練循環(huán)、數(shù)據(jù)加載器、小批量和優(yōu)化器;二元分類器、交叉熵?fù)p失和不平衡數(shù)據(jù)集;決策邊界、評估指標(biāo)和數(shù)據(jù)可分離性等內(nèi)容。
本書適用于對深度學(xué)習(xí)感興趣,并希望使用PyTorch實現(xiàn)深度學(xué)習(xí)的Python程序員閱讀學(xué)習(xí)。

PYTORCH深度學(xué)習(xí)指南:編程基礎(chǔ) 卷I 目錄

前 言
致 謝
關(guān)于作者
譯者序
常見問題
  為什么選擇PyTorch?
  為什么選擇這套書?
  誰應(yīng)該讀這套書?
  我需要知道什么?
  如何閱讀這套書?
  下一步是什么?
設(shè)置指南
  官方資料庫
  環(huán)境
    谷歌Colab
    Binder
    本地安裝
  繼續(xù)
第0章 可視化梯度下降
  劇透
  Jupyter Notebook
    導(dǎo)入
  可視化梯度下降
  模型
  數(shù)據(jù)生成
    合成數(shù)據(jù)生成
    訓(xùn)練-驗證-測試拆分
  第0步——隨機(jī)初始化
  第1步——計算模型的預(yù)測
  第2步——計算損失
    損失面
    橫截面
  第3步——計算梯度
    可視化梯度
    反向傳播
  第4步——更新參數(shù)
    學(xué)習(xí)率
  第5步——循環(huán)往復(fù)
    梯度下降的路徑
  回顧
第1章 一個簡單的回歸問題
  劇透
  Jupyter Notebook
    導(dǎo)入
  一個簡單的回歸問題
  數(shù)據(jù)生成
    合成數(shù)據(jù)生成
  梯度下降
    第0步——隨機(jī)初始化
    第1步——計算模型的預(yù)測
    第2步——計算損失
    第3步——計算梯度
    第4步——更新參數(shù)
    第5步——循環(huán)往復(fù)
  Numpy中的線性回歸
  PyTorch
    張量
    加載數(shù)據(jù)、設(shè)備和CUDA
    創(chuàng)建參數(shù)
  Autograd
    backward
    grad
    zero_
    更新參數(shù)
    no_grad
  動態(tài)計算圖
  優(yōu)化器
    step/zero_grad
  損失
  模型
    參數(shù)
    state_dict
    設(shè)備
    前向傳遞
    訓(xùn)練
    嵌套模型
    序列(Sequential)模型
    層
  歸納總結(jié)
    數(shù)據(jù)準(zhǔn)備
    模型配置
    模型訓(xùn)練
  回顧
第2章 重新思考訓(xùn)練循環(huán)
  劇透
  Jupyter Notebook
    導(dǎo)入
  重新思考訓(xùn)練循環(huán)
    訓(xùn)練步驟
  Dataset
    TensorDataset
  DataLoader
    小批量內(nèi)循環(huán)
    隨機(jī)拆分
  評估
    繪制損失
  TensorBoard
    在Notebook中運(yùn)行
    單獨(dú)運(yùn)行(本地安裝)
    單獨(dú)運(yùn)行(Binder)
    SummaryWriter
    add_graph
    add_scalars
  保存和加載模型
    模型狀態(tài)
    保存
    恢復(fù)訓(xùn)練
    部署/做出預(yù)測
    設(shè)置模型的模式
  歸納總結(jié)
  回顧
第2.1章 追求優(yōu)雅
  劇透
  Jupyter Notebook
    導(dǎo)入
  追求優(yōu)雅
    類
    構(gòu)造方法
    訓(xùn)練方法
    保存和加載方法
    可視化方法
    完整代碼
  典型的管道
    模型訓(xùn)練
    做出預(yù)測
    檢查點(diǎn)
    恢復(fù)訓(xùn)練
  歸納總結(jié)
  回顧
第3章 一個簡單的分類問題
  劇透
  Jupyter Notebook
    導(dǎo)入
  一個簡單的分類問題
  數(shù)據(jù)生成
  數(shù)據(jù)準(zhǔn)備
  模型
    logit
    概率
    比值比(Odds Ratio)
    對數(shù)比值比
    從logit到概率
    Sigmoid
    邏輯斯蒂回歸
  損失
    BCELoss
    BCEWithLogitsLoss
    不平衡數(shù)據(jù)集
  模型配置
  模型訓(xùn)練
  決策邊界
  分類閾值
    混淆矩陣
    指標(biāo)
    權(quán)衡和曲線
  歸納總結(jié)
  回顧
展開全部

PYTORCH深度學(xué)習(xí)指南:編程基礎(chǔ) 卷I 作者簡介

丹尼爾?沃格特?戈多伊是一名數(shù)據(jù)科學(xué)家、開發(fā)人員、作家和教師。自2016年以來,他一直在柏林歷史最悠久的訓(xùn)練營Data Science Retreat講授機(jī)器學(xué)習(xí)和分布式計算技術(shù),幫助數(shù)百名學(xué)生推進(jìn)職業(yè)發(fā)展。
丹尼爾還是兩個Python軟件包——HandySpark和DeepReplay的主要貢獻(xiàn)者。
他擁有在多個行業(yè)20多年的工作經(jīng)驗,這些行業(yè)包括銀行、政府、金融科技、零售和移動出行等。

商品評論(0條)
暫無評論……
書友推薦
本類暢銷
返回頂部
中圖網(wǎng)
在線客服