Exo

分布式异构 AI 推理集群框架 | 版本 v0.4.2 | GPLv3
Python

Exo 让你可以将家中闲置的电子设备(如 iPhone、iPad、MacBook、Windows PC 等)组合成一个强大的 AI 集群。通过动态显存分配技术,它能让单台显存不足的设备合力运行 70B+ 的大参数模型。

Exo 分布式集群示意图

加入开发者社群

获取 PCB 源文件、BOM 表及技术支持

1000+ 成员 活跃中
扫码加入

描述

项目简介

Exo 让你可以将家中闲置的电子设备(如 iPhone、iPad、MacBook、Windows PC 等)组合成一个强大的 AI 集群。通过动态显存分配技术,它能让单台显存不足的设备合力运行 70B+ 的大参数模型。

为什么选择 Exo?

  • 变废为宝:无需购买昂贵的 H100 显卡,利用闲置设备算力
  • 隐私安全:所有推理过程都在本地局域网完成,数据不出户
  • 跨平台:支持 macOS, Linux, Windows, iOS, Android 混合组网

技术参数

适用场景 Home Cluster
开发语言 Python
平台支持 All Platforms
核心技术 Dynamic VRAM

硬件要求

8GB+ RAM Python 3.10+ Wi-Fi 6 (推荐)

快速上手

# 1. 安装 exo

pip install exo-core

# 2. 启动主节点

exo start --role master

# 3. 在其他设备上加入集群

exo join <master_ip>

# 4. 运行模型

exo run llama-3-70b

性能表现

3x MacBook Air (M1, 8GB)

在三台入门级 MacBook Air 组成的集群上,运行 Llama-3-70B 模型的推理速度可达 4-5 tokens/s

虽然速度不如专业 H100 显卡,但对于个人学习、实验和非实时应用来说,这是一种零成本运行超大模型的有效方案。

Llama-3-8B 25 t/s
Llama-3-70B 4.5 t/s

资源下载

加入开发者社群

获取 PCB 源文件、BOM 表及技术支持。

项目成员

Alex

Alex

发起人

Exo 核心调度算法设计者。

Bob

Bob

网络优化

负责 P2P 通信与延迟优化。

Charlie

Charlie

前端开发

负责 Dashboard 可视化界面开发。

评论

U1

user_001

这个项目太棒了,让我的旧手机焕发新生!

A2

ai_fan

请问支持 Android 手机吗?