回首頁  
帳號
 
關於博碩 博碩好讀 校園圖書 MOCC認證 下載教學 元學堂

博碩好讀
  新書推薦
  出版預告
  名家名著
  iT達人祕笈
 

分類索引

 

出版總覽

 

讀者服務

  徵求作者
 
首頁 >> 書籍介紹
 
 
點我可放大圖片
 
書名:全面掌握生成式AI與LLM開發實務:NLP×PyTorch×GPT輕鬆打造專屬的大型語言模型(iThome鐵人賽系列書)
書號:MP22425 作者:黃朝隆 著 ISBN: 978-626-333-968-2
定價:NT$620元 印刷:單色 頁數:256頁
書籍規格:17*23 上市日:2024/10/18 譯者:(無)
學習定位:初階 本書附件:網路下載範例檔  
前往購買 >> 蝦皮購物 類別:電腦技術  
       
快速前往 快速前往 快速前往        

 

 
    帶你掌握最前沿的AI技術,成為AI時代的領軍者!
    從理論到實踐,自然語言處理必修指南
    精通AI × NLP,快速脫穎而出!

    【專業推薦】
    「對許多人而言,AI技術既熟悉又遙遠,其快速發展加劇了資訊焦慮。在這個背景下,我推薦這本關於生成式AI與大型語言模型(LLM)開發實務的書籍,因為它提供了一個極具深度和廣度的學習資源,無論是剛接觸人工智慧領域的初學者,還是希望深入理解生成式AI的專業人士,都能從中獲得啟發與實踐經驗。本書的特點在於其層層遞進的結構設計,將複雜的理論與實務操作相結合,讓讀者能夠逐步建立起紮實的人工智慧知識體系。」

    ─ 李俊宏,國立高雄科技大學 電機工程系資通組教授


    「本書中的內容並不是單純地傳授如何使用特定工具,而是透過詳細的範例與步驟,讓讀者理解背後的邏輯,書中提供了豐富的實作指導,幫助讀者不只實現模型的搭建,還能深入探討模型優化的細節,這對於那些正在學習如何調整超參數來提高模型效能的讀者來說,尤為重要。本書是一本適合任何階段的讀者閱讀的書籍,無論你是剛入門的學生,還是有一定經驗的開發者,都能在這裡找到進一步提升的機會。」

    ─ 吳宇祈,國立成功大學 電機工程系碩士生



    【內容簡介】
    ♔ 深度學習必備:理解AI與NLP理論,從入門到精通
    ♔ 實戰案例解析:豐富的程式碼實例,培養實戰能力
    ♔ 模型優化祕訣:掌握最新AI技術,提升模型表現
    ♔ 全面培訓實戰:初學者或專業人士可精進AI專案程式


    本書內容改編自第15屆iThome鐵人賽AI & Data組佳作系列文章《30天內成為NLP大師:掌握關鍵工具和技巧》。本書從基礎理論到實務應用,詳細介紹了自然語言處理的發展過程及相關技術,且循序漸進解釋了AI中的數學原理,如線性代數、矩陣相乘及機率,並將這些理論應用於深度學習模型中。

    此外,本書內容還涵蓋了如何建立、訓練及優化自然語言處理模型的實作步驟,並介紹目前最熱門的模型架構,如Transformer、BERT、GPT、LLaMA等,指導讀者如何在實際應用中微調這些模型,以達到最佳效果。對於那些希望參與人工智慧競賽或是提升程式設計技能的讀者,本書也提供大量實例與程式碼,幫助讀者更加理解和掌握這些技術。

    【本書特色】
    ✪理解人工智慧實際上的運作原理以及電腦是如何理解文字資料的。
    ✪完整介紹自然語言處理的「重要發展」與「最近進展」,讓你快速上手自然語言處理這一領域。
    ✪全面理解大型語言模型的奧妙與其相關評估指標。
    ✪告訴你模型優化技巧,讓你能在競賽中獲取優良名次。
    ✪讓你擁有工程師的「程式風格」與培育「自學思維」。

    【目標讀者】
    ✪對人工智慧懷抱熱情的初學者與愛好者。
    ✪希望快速學習、累積人工智慧程式專案經驗的程式設計師和開發者。
    ✪數學理論強但程式設計經驗有限、想踏入人工智慧領域的學習者。
    ✪希望參加人工智慧競賽的參賽者。
    ✪希望了解最新NLP技術發展的技術專業人士。
 
    |Chapter 01| 模型該如何理解文字
    1.1 Tokenizer介紹
    1.2 文字向量化的方式
    1.3 程式實作:建立BPE Tokenizer
    1.4 本章總結

    |Chapter 02| 用數學來告訴你何謂神經網路
    2.1 自然語言模型是如何運行的
    2.2 程式實作:手刻NLP神經網路
    2.3 本章總結

    |Chapter 03| Pytorch的訓練方式與模型的優化方式
    3.1 模型的優化方式
    3.2 Pytorch介紹與安裝
    3.3 程式實作:建立訓練器
    3.4 本章總結

    |Chapter 04| 文字也是一種有時間序列的資料
    4.1 循環神經網路
    4.2 LSTM(Long short-term memory)
    4.3 GRU(Gated Recurrent Unit )
    4.4 程式實作:IMDB影評情緒分析
    4.5 本章總結

    |Chapter 05| 該如何生成文字Seq2seq架構解析
    5.1 Seq2Sqe 介紹
    5.2 Seq2Sqe + Attention
    5.3 程式實作:中英翻譯模型
    5.4 本章總結

    |Chapter 06| 萬物皆可Transformer
    6.1 Transformer介紹
    6.2 Transformer Encoder
    6.3 Transformer Decoder
    6.4 程式實作:新聞文字摘要
    6.5 本章總結

    |Chapter 07| 站在巨人肩膀上的預訓練模型BERT
    7.1 預訓練模型
    7.2 模型微調
    7.3 BERT
    7.4 程式實作:使用SQuAD做QA問答
    7.5 本章總結

    |Chapter 08| 暴力的美學GPT的強大能力
    8.1 GPT-1
    8.2 GPT-2
    8.3 GPT-3
    8.4 程式實作:用生成式AI來回答問題
    8.5 本章總結

    |Chapter 09| 大型語言模型時代的起點
    9.1 InstructGPT
    9.2 ChatGPT
    9.3 ChatGPT API申請方式
    9.4 程式實作:打造個人的Linebot助手
    9.5 本章總結

    |Chapter 10| 建立屬於自己的大型語言模型
    10.1 LLaMA
    10.2 QLorA
    10.3 NEFtune
    10.4 程式實作:用LLaMA 3訓練聊天機器人
    10.5 本章總結
 
    黃朝隆
    國立高雄應用科技大學電機工程系碩士班,專攻電機與資訊工程。在學期間積極參與多項學術研究和實務專案,並將這些經驗應用於各類競賽,曾取得AI CUP亞軍及專題競賽等優異成績。

    作者致力於將複雜的概念,以簡潔和易於理解的方式傳遞給他人。除了學術上的成就,作者也熱衷於教育工作,不僅在國內擔任家教,更曾在國外擔任碩士生的程式語言家教。強調自主學習的重要性,希望培養學生的自學能力,幫助他們發現自己的學習節奏與興趣所在,透過設計具挑戰性且實用的課程,讓學生不僅能掌握理論知識,更能培養獨立思考與解決問題的能力。
 
 
 
 
     

博碩文化客服信箱
 

[email protected]

 
文教業務團隊
台北、新北、桃園、基隆、宜蘭、花蓮、金門
汪 玉 鳳
LINE ID:0925177716
0925-177716
[email protected]
郭 南 彤
LINE ID:rgtech101
0917-727778
[email protected]
助理分機 519
新竹、苗栗、台中、彰化、南投、雲林
林 世 昌
LINE ID:0925275775
0925-275775
[email protected]
助理分機 519
嘉義、台南、高雄、屏東、台東、澎湖
林 月 玲
LINE ID:0926858627
0926-858627
[email protected]
助理分機 238
 
MOCC 認證小組
 
  林 雯 玲 電話:02-2696-2869 分機:623 [email protected]

 

 
 

 

博碩文化股份有限公司 DrMaster Press Co., Ltd.
台灣新北市汐止區新台五路一段112號10樓A棟
Building A, 10F, No.112, Xintai 5th Rd., Sec.1,Xizhi Dist., New Taipei City 221, Taiwan
Tel:02-2696-2869 Fax:02-2696-2867 劃撥帳號:17484299

Copyright© DrMaster Press Co., Ltd. All Rights Reserved.