MindSpore大语言模型实战

? 基本信息

  • 书名:MindSpore大语言模型实战
  • 作者:陈雷 编著
  • 出版社:人民邮电出版社
  • 出版时间:2024/10/1
  • 字数:135千字

? 推荐语

详细介绍MindSpore在大模型领域的应用。

? 内容简介

随着ChatGPT等大语言模型的迅速发展,大语言模型已经成为人工智能领域发展的快车道,不同领域涌现出各种强大的新模型。开发者想要独立构建、部署符合自身需求的大语言模型,需要理解大语言模型的实现框架和基本原理。

本书梳理大语言模型的发展,首先介绍Transformer模型的基本原理、结构和模块及在NLP任务中的应用;然后介绍由只编码(Encoder-Only)到只解码(Decoder-Only)的技术路线发展过程中对应的 BERT、GPT等大语言模型;

接下来介绍大语言模型在部署、训练、调优过程中涉及的各种关键技术,如自动并行、预训练与微调、RLHF等,并提供相应的实践指导;最后以开源大语言模型BLOOM和LLaMA为样例,介绍其架构和实现过程,帮助读者理解并构建、部署自己的大语言模型。本书还提供了基于MindSpore框架的丰富样例代码。

✍️ 作者简介

编著者陈雷,加拿大滑铁卢大学计算机博士。现担任香港科技大学(广州)信息枢纽院长,数据科学与分析学域讲座教授,广州市大数据智能重点实验室主任。研究方向包括数据驱动的人工智能、大数据分析、知识图谱、众包、区块链、图数据库、概率和不确定数据库,以及时空和时间序列数据库。

? 出版社介绍

人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。