各个方向的学习内容

ACK:感谢林夕,周宇航,李世鹏,张中辉对这个网页的帮助

高性能计算 (HPC)

一个比较老的课程:链接

最新的课程:链接

ppt在:链接

数据库以及图计算 (DB)

大模型系统 (LLM System)

入门视频

【Transformer论文逐段精读【论文精读】】 链接

【68 Transformer【动手学深度学习v2】】 链接

近似算法

图采样算法

链接 可以看一下这个论文以及附录的证明,特别是那个采样的分析,看看对这种数学的分析感不感兴趣

向量数据库

除了上述内容,也可以学习数据挖掘的内容,有很大一部分是向量数据库的内容

数据挖掘

建议学习课程 CS246W: Mining Massive Datasets, Stanford University

课程:链接 (不过好像打不开了)

视频在:链接

AI算法, 图神经网络 (GNN)

建议学习课程 CS224W: Machine Learning with Graphs, Stanford University

课程:链接

视频在:链接

一些项目

Leiden算法在GPU上的实现 (HPC,图计算,近似算法,DB)

社区检测的一些介绍: 链接

Leiden算法的论文:链接

进度:我们基于Leiden算法的前置算法Louvain已经在GPU上实现了(发表在PPoPP, CCF A,南大第一篇),扩展到Leiden算法应该不难

目标:扩展到Leiden可以再发一篇A类期刊,另外可以把这个项目拿去参加挑战杯(如果要参加请尽快联系我)

使用GPU加速向量数据库的查询 (HPC,近似算法,DB)

进度:我们已经在GPU上实现了一个简单的向量数据库

任务:参与查询算法的优化,以及GPU上的实现

Fault Tolerance in LLM Training (LLM System,HPC)

已完成相关论文:Unicron: Economizing self-healing llm training at scale.

正在和华为合作做这个topic

有一个博士生在做这个方向,可以和他一起做

ASPLOS的比赛

链接

有个ACM金牌的大四学长在做,可以一起做

Multi-Agent (AI算法,LLM System)

论文:链接

进度:刚刚开始

LLM inference中Decoding阶段复用kv cache (LLM System,HPC)

相关论文

Flash attention: 链接

SpecInfer: Accelerating Large Language Model Serving with Tree-based Speculative Inference and Verification

最新进展

Bifurcated Attention: Accelerating Massively Parallel Decoding with Shared Prefixes in LLMs

Hydragen: High-Throughput LLM Inference with Shared Prefixes