AI 基础知识 - GPU 架构、CUDA 编程、大模型基础及AI Agent 相关知识
# Add to your Claude Code skills
git clone https://github.com/ForceInjection/AI-fundermentals本仓库是一个全面的人工智能基础设施(AI Infrastructure)学习资源集合,涵盖从硬件基础到高级应用的完整技术栈。内容包括 GPU 架构与编程、CUDA 开发、大语言模型、AI 系统设计、性能优化、企业级部署等核心领域,旨在为 AI 工程师、研究人员和技术爱好者提供系统性的学习路径和实践指导。
- 适用人群:AI 工程师、系统架构师、GPU 编程开发者、大模型应用开发者、技术研究人员。
- 技术栈:CUDA、GPU 架构、LLM、AI 系统、分布式计算、容器化部署、性能优化。
Star History:
本章深入解析 AI 计算硬件与系统互连架构,内容涵盖从单机基础计算芯片(GPU、TPU)的设计哲学,到系统内高速互连总线(PCIe、NVLink)及高级跨节点直通技术(GPUDirect),最后探讨系统级延迟参考与异构融合超级芯片架构。详细内容请访问:硬件架构与互连技术。
No comments yet. Be the first to share your thoughts!
本章涵盖从底层网络硬件到上层通信库的完整运维体系,包括高性能网络组网、GPU 基础监控运维以及分布式通信实战,为构建高吞吐的 AI 计算集群提供保障。详细内容请访问:AI 集群运维与通信。
本章聚焦于云原生技术在 AI 领域的应用,探讨如何利用 Kubernetes、容器化、微服务等云原生技术栈构建高效、可扩展的 AI 基础设施。详细内容请访问:云原生 AI 平台。
Kubernetes 是云原生 AI 平台的操作系统。本模块深入解析 Kubernetes 在 AI 场景下的核心组件与扩展机制,涵盖从底层的容器运行时支持到上层的分布式作业调度。
GPU 是 AI 平台最昂贵的计算资源。本模块专注于 GPU 资源的精细化管理,包括虚拟化、切分、远程调用和池化技术,旨在最大化资源利用率。
基础系列文档:
HAMi 专题:
代码实现与配置:
数据是 AI 的燃料。本模块介绍如何利用 JuiceFS、DeepSeek 3FS 等云原生分布式文件系统,解决 AI 训练中海量小文件读取、模型检查点保存和跨节点数据共享的性能瓶颈。
本章专注于 AI 系统的底层编程技术,涵盖 GPU 基础架构、CUDA 核心编程范式以及 DPU 的开发指南,为系统级开发者提供从入门到进阶的完整技术路径。
整合了 GPU 基础架构、CUDA 核心编程概念及丰富的学习资源。详细内容请访问:GPU 编程基础。
开发环境配置:
核心编程范式:
Tile-Based 编程:
性能分析与调优:
进阶学习资源:
介绍数据处理单元(DPU)在现代计算架构中的应用及编程框架。详细内容请访问:DPU 编程。
本章探讨在 AI 时代下新兴的应用层开发范式与工作流,重点关注如何利用各种编程语言、框架和编排工具构建复杂的 LLM 应用及 Agent 系统。详细的深度探讨可参考 大模型编程指南。
随着大语言模型能力的爆发式增长,软件工程正从 Software 1.0/2.0 时代迈向以自然语言驱动、Agent 自主决策与推理为核心的 Software 3.0 时代。本节探讨了在 AI 辅助下新兴的编程范式与工作流,重点关注如何利用 AI 提升开发效率与代码质量:
本节主要介绍在 Java 生态系统中开发大语言模型应用的技术栈。Spring AI 作为官方主推的 AI 工程框架,极大地降低了企业级 Java 应用接入 AI 能力的门槛。
LangGraph 是一个用于构建有状态、多智能体应用程序的库。它通过引入图计算模型,完美解决了传统 LLM 应用在循环逻辑和状态持久化方面的瓶颈,特别适合构建需要多轮推理和自我反思的复杂 Agent 工作流。
除硬编码框架外,无代码或低代码(No-Code/Low-Code)工具也是 AI 应用落地的重要途径,它们能大幅提升编排效率。
本部分基于开源项目,提供系统化的机器学习学习路径。涵盖从数学原理到代码实现的完整过程,为深入学习大模型打下坚实基础。
本节提供全面的理论讲解与代码实战。
动手学机器学习 - 全面的机器学习学习资源库,包含理论讲解、代码实现和实战案例。
核心特色:
本节精选了数学基础、经典教材与实战平台资源,构建完整的知识图谱。
数学基础:
经典教材:
在线课程与实战: