各个方向的学习内容

因为这个网页做的匆忙,所以内容还不全,但我会努力更新的!!! 同学们有什么问题可以随时联系我,微信:wzbxpy

ACK:感谢林夕,周宇航,李世鹏,张中辉对这个网页的帮助

高性能计算 (HPC)

一个比较老的课程:https://youtube.com/playlist?list=PLAwxTw4SYaPnFKojVQrmyOGFCqHTxfdv2&si=a26iDjQSZrHaQu3U 但有视频

最新的课程:https://canvas.illinois.edu/courses/49985/assignments/syllabus

ppt在:https://github.com/jiadong5/ECE408_FA23_UIUC/tree/master/Lecture%20Notes%20and%20Exam%20Samples/lectures

数据库以及图计算 (DB)

大模型系统 (LLM System)

入门视频

【Transformer论文逐段精读【论文精读】】 https://www.bilibili.com/video/BV1pu411o7BE/?share_source=copy_web&vd_source=3cd0b30eec09a569a546f443e016f6cc

【68 Transformer【动手学深度学习v2】】 https://www.bilibili.com/video/BV1Kq4y1H7FL/?share_source=copy_web&vd_source=3cd0b30eec09a569a546f443e016f6cc

近似算法

图采样算法

https://www.usenix.org/conference/atc23/presentation/lai 可以看一下这个论文以及附录的证明,特别是那个采样的分析,看看对这种数学的分析感不感兴趣

向量数据库

除了上述内容,也可以学习数据挖掘的内容,有很大一部分是向量数据库的内容

数据挖掘

建议学习课程 CS246W: Mining Massive Datasets, Stanford University

课程:http://cs246w.stanford.edu/ (不过好像打不开了)

视频在:https://www.youtube.com/playlist?list=PLLssT5z_DsK9JDLcT8T62VtzwyW9LNepV

AI算法, 图神经网络 (GNN)

建议学习课程 CS224W: Machine Learning with Graphs, Stanford University

课程:http://cs224w.stanford.edu/

视频在:https://www.youtube.com/playlist?list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn

一些项目

Leiden算法在GPU上的实现 (HPC,图计算,近似算法,DB)

社区检测的一些介绍: https://www.zhihu.com/question/29042018/answer/2216618374

Leiden算法的论文:https://www.nature.com/articles/s41598-019-41695-z

进度:我们基于Leiden算法的前置算法Louvain已经在GPU上实现了(发表在PPoPP, CCF A,南大第一篇),扩展到Leiden算法应该不难

目标:扩展到Leiden可以再发一篇A类期刊,另外可以把这个项目拿去参加挑战杯(如果要参加请尽快联系我)

使用GPU加速向量数据库的查询 (HPC,近似算法,DB)

进度:我们已经在GPU上实现了一个简单的向量数据库

任务:参与查询算法的优化,以及GPU上的实现

Fault Tolerance in LLM Training (LLM System,HPC)

已完成相关论文:Unicron: Economizing self-healing llm training at scale.

正在和华为合作做这个topic

有一个博士生在做这个方向,可以和他一起做

ASPLOS的比赛

https://github.com/asplos-contest/2025/tree/main

有个ACM金牌的大四学长在做,可以一起做

Multi-Agent (AI算法,LLM System)

论文:https://arxiv.org/pdf/2402.01680

进度:刚刚开始

LLM inference中Decoding阶段复用kv cache (LLM System,HPC)

相关论文

Flash attention: https://github.com/Dao-AILab/flash-attention

SpecInfer: Accelerating Large Language Model Serving with Tree-based Speculative Inference and Verification

最新进展

Bifurcated Attention: Accelerating Massively Parallel Decoding with Shared Prefixes in LLMs

Hydragen: High-Throughput LLM Inference with Shared Prefixes