智谱AI开源的革命性AI智能体框架,支持本地化私有部署,数据完全可控。基于GLM-Z1-9B轻量级模型,让您的手机拥有强大的AI能力,简单操作即可完成复杂任务
基于GLM-Z1-9B模型、MobileRL框架和解耦架构,AutoGLM AI提供完全开源的AI智能体解决方案
AutoGLM AI支持完全本地化部署,所有计算都在您的设备上完成,数据不离开您的控制范围。采用GLM-Z1-9B轻量级模型,在普通硬件上即可高效运行。
AutoGLM AI采用Apache-2.0和MIT双开源协议,完全免费,支持商业使用。您可以自由修改、分发和集成到自己的项目中,无需担心厂商锁定或隐藏费用。
AutoGLM AI提供完整的开发工具链和API,支持模型微调、插件开发和系统集成。开发者可以根据特定需求定制智能体行为,集成到现有工作流中。
GLM-Z1-9B采用90亿参数架构,在数学推理和通用任务上媲美更大规模模型
131k上下文窗口:集成YaRN技术,支持131,072个Token的长上下文处理能力
15T Token训练:采用与千亿级GLM-4相同的高质量数据管线进行训练
AutoGLM AI采用创新的解耦架构,将感知、决策、执行三个层次清晰分离,大大提高了系统的可维护性和可扩展性
模块化设计:各组件可独立升级和替换,支持快速迭代和功能扩展
基于MobileRL框架,AutoGLM AI能够通过与环境的交互不断优化决策策略,适应不同的应用场景
多任务学习:同时学习多个相关任务,提高泛化能力和迁移学习效果
AutoGLM AI支持文本、图像、音频等多种模态的输入理解,能够准确识别屏幕内容、理解用户意图
视觉-语言联合建模:采用先进的视觉语言模型技术,实现精准的屏幕理解
基于Rumination技术,AutoGLM AI具备深度思考和自我反思能力,能够分析操作结果并优化后续策略
错误检测与纠正:自动识别操作错误,智能调整策略,提高任务成功率
基于ComputerRL框架,AutoGLM AI支持移动端和桌面端的统一控制,实现跨平台的自动化操作
跨应用协同:支持不同应用之间的数据传递和操作协同,实现复杂的多步骤任务
相比云端服务,AutoGLM AI平均响应时间提升300%,大幅减少操作延迟
内存占用优化:采用先进的模型压缩技术,内存占用降低40%,适合移动端部署
本地部署模式下,长期成本降低80%,无需持续的API调用费用
硬件成本回收:6-8个月即可通过节省的云服务费用收回硬件投资成本
所有计算均在本地设备完成,数据不离开您的控制范围,适合对安全要求极高的金融、医疗等行业
硬件要求:Intel i5+ / AMD Ryzen 5+ 处理器,16GB+ 内存,支持CUDA的GPU可选
所有计算在云端完成,客户端仅需轻量级代理,支持强大的并发处理能力
云服务器要求:4 vCPU+,8GB+ 内存,Ubuntu 20.04+,支持Docker和Kubernetes
数据本地处理,模型云端推理,兼顾安全性和计算效率的最佳方案
混合架构:边缘设备负责屏幕捕获和基础处理,云端负责复杂推理和决策
入门级:Intel i5-12400F + RTX 3060,适合个人开发和小规模应用
专业级:Intel i7-13700K + RTX 4070,支持中等规模并发和复杂任务
基于PyTorch深度学习框架,支持Transformers、Accelerate等主流工具
容器化部署:提供Docker镜像,支持Kubernetes集群编排,简化部署和运维
支持模型微调:提供LoRA、QLoRA等多种微调技术,适应特定领域需求
插件开发:开放API接口,支持自定义插件开发,扩展智能体功能
一键Docker部署:提供预配置的Docker镜像,包含完整的运行环境
K8s集群支持:支持Helm Charts,简化集群部署和扩缩容操作
模型量化:支持INT8/INT4量化,显著降低内存占用,提升推理速度
GPU加速:兼容CUDA、OpenCL等加速技术,充分利用硬件性能
数据加密:支持端到端加密,保护敏感数据在传输和存储过程中的安全
访问控制:细粒度权限管理,支持LDAP、OAuth2等企业认证系统
实时监控:提供详细的性能指标监控,支持Prometheus、Grafana集成
自动告警:异常检测和自动告警机制,及时发现和解决系统问题
屏幕捕获、模型分析、操作执行均在本地设备完成,数据不离开设备,隐私性最高。
# Python环境
conda create -n autoglm python=3.9
conda activate autoglm
# 安装PyTorch (CUDA版本)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
# 安装AutoGLM AI
git clone https://github.com/thudm/autoglm.git
cd autoglm
pip install -e .
# 下载模型权重
python -m autoglm.download --model glm-z1-9b
# 安装依赖包
pip install -r requirements.txt
# 安装Android ADB工具
# Windows: 从官网下载
# macOS: brew install android-platform-tools
# Linux: sudo apt install android-tools-adb
# 创建配置文件
mkdir -p ~/.autoglm
cat > ~/.autoglm/config.yaml << EOF
model:
name: "glm-z1-9b"
path: "./models/glm-z1-9b"
device: "cuda" # 或 "cpu"
android:
adb_path: "/usr/local/bin/adb"
device_id: "auto" # 自动检测设备
inference:
batch_size: 1
max_length: 2048
EOF
# 启动AutoGLM AI服务
python -m autoglm.serve --config ~/.autoglm/config.yaml
# 或使用命令行界面
python -m autoglm.cli --device-id
屏幕内容传输到云端模型,分析后指令返回操作环境执行。开发者需确保传输和云端处理安全性。
# 创建云服务器实例 (推荐配置)
# - CPU: 8 vCPU以上
# - 内存: 32GB以上
# - GPU: NVIDIA Tesla V100/A100
# - 存储: 200GB SSD
# - 操作系统: Ubuntu 20.04 LTS
# 连接服务器
ssh root@your-server-ip
# 安装Docker
curl -fsSL https://get.docker.com -o get-docker.sh
sh get-docker.sh
# 安装NVIDIA Docker支持
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
# 拉取AutoGLM AI镜像
docker pull autoglm/autoglm-cloud:latest
# 创建数据目录
mkdir -p /data/autoglm/{models,logs,config}
# 启动服务
docker run -d --name autoglm-server \
--gpus all \
-p 8080:8080 \
-v /data/autoglm/models:/app/models \
-v /data/autoglm/logs:/app/logs \
-v /data/autoglm/config:/app/config \
autoglm/autoglm-cloud:latest
# 查看服务状态
docker logs autoglm-server
# 在客户端设备上安装SDK
pip install autoglm-client
# 创建客户端配置
cat > ~/.autoglm/client.yaml << EOF
server:
host: "your-server-ip"
port: 8080
use_ssl: true
api_key: "your-api-key"
security:
encrypt_data: true
ssl_verify: true
EOF
# 测试连接
python -c "
import autoglm_client
client = autoglm_client.Client('~/.autoglm/client.yaml')
print(client.health_check())
"
# 配置Nginx反向代理和SSL
apt install nginx
# /etc/nginx/sites-available/autoglm
server {
listen 443 ssl;
server_name your-domain.com;
ssl_certificate /path/to/cert.pem;
ssl_certificate_key /path/to/key.pem;
location / {
proxy_pass http://localhost:8080;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
}
}
# 启用并重启Nginx
ln -s /etc/nginx/sites-available/autoglm /etc/nginx/sites-enabled/
nginx -t && systemctl restart nginx
屏幕内容在本地捕获,传输到云端模型分析,分析结果返回本地执行。平衡安全性和效率的最佳方案。
# 安装客户端组件
pip install autoglm-hybrid-client
# 配置本地执行环境
cat > ~/.autoglm/hybrid.yaml << EOF
local:
capture_service: true
execution_service: true
data_encryption: true
cloud:
model_endpoint: "https://your-cloud-server.com/api/v1/inference"
api_key: "your-cloud-api-key"
security:
encrypt_transmission: true
compression: true
EOF
# 部署云端推理服务
docker run -d --name autoglm-inference \
--gpus all \
-p 9000:9000 \
-v /data/models:/models \
autoglm/inference-server:latest \
--model-path /models/glm-z1-9b \
--host 0.0.0.0 \
--port 9000
# 配置API网关
docker run -d --name api-gateway \
-p 8080:8080 \
--link autoglm-inference:inference \
autoglm/api-gateway:latest
# 配置混合模式启动脚本
cat > start_hybrid.sh << 'EOF'
#!/bin/bash
# 启动本地捕获服务
autoglm-capture --config ~/.autoglm/hybrid.yaml &
# 启动本地执行服务
autoglm-executor --config ~/.autoglm/hybrid.yaml &
# 等待服务启动
sleep 5
# 启动混合模式协调器
autoglm-hybrid-coordinator --config ~/.autoglm/hybrid.yaml
EOF
chmod +x start_hybrid.sh
# 启动混合部署
./start_hybrid.sh
# 验证混合模式状态
curl -X GET http://localhost:8080/health
# 测试混合功能
python -m autoglm.hybrid.test \
--config ~/.autoglm/hybrid.yaml \
--test-case screenshot_analysis
# 使用部署模式选择工具
python -m autoglm.deploy.advisor
# 交互式配置向导
python -m autoglm.deploy.wizard
# 硬件兼容性检测
python -m autoglm.deploy.check-hardware
# 查看系统诊断信息
autoglm diagnose
# 检查日志文件
tail -f ~/.autoglm/logs/autoglm.log
# 性能分析
autoglm profile --duration 60
# 重置配置
autoglm config reset --backup
# 启动监控仪表板
autoglm monitor start
# 查看系统状态
autoglm status
# 更新模型
autoglm update --model glm-z1-9b
# 备份配置和数据
autoglm backup --path ~/autoglm-backup
三星(Samsung):合作将GLM模型集成到Galaxy手机中,探索端侧AI
高通(Qualcomm):优化Snapdragon芯片对GLM-Z1的支持,为本地推理铺路
英特尔/华硕:在PC端(GLM PC)展开合作,推动AI PC的落地
资本支持:获得成都高新区、上海国资等数亿美元的耐心资本投资
硬件联盟:构建从芯片到终端设备的完整AI硬件生态体系
GitHub仓库:THUDM/MobileRL、THUDM/WebRL等核心开源项目
贡献指南:开发者可通过提交PR优化环境包装器或添加新数据集
微调工具:集成LLaMA-Factory等工具,支持高效微调
垂直领域定制:鼓励针对医疗、金融等专业领域微调模型
模型共享:社区可分享专用权重,共建模型生态
C端免费策略:基础功能完全免费,快速积累用户交互数据
B端API收费:极具破坏性的$0.086/1M Token定价策略
增值服务:企业版"云手机"服务,提供高性能云端设备
硬件集成:通过硬件预装获得授权费用和技术服务收入
主权AI输出:向中东、东南亚输出国家级AI基础设施
数据本地化:严格遵守《个人信息保护法》等法规
境内数据处理:主要数据在中国境内服务器完成
GDPR合规:面向海外市场的跨境数据传输合规方案
审计日志:完整的操作审计日志,支持SIEM集成
认证体系:ISO 27001、等保三级等安全认证
云手机普及与稳定,优化延迟和并发能力
原生手机植入,系统级服务直接运行在NPU上
自我进化智能体,实现终身学习和自适应能力
种草到拔草闭环:抖音看菜谱→盒马买菜→自动比价→购物车确认
深度研究助理:自主规划研究→搜索PubMed→撰写万字报告
智能工作流:自动处理邮件→安排会议→生成会议纪要→分配任务
多模态理解:支持文本、图像、语音的联合理解和交互
终身学习:智能体能够持续学习新知识和适应环境变化
安全可控:确保智能体行为符合用户意图和价值观要求
AutoGLM AI采用Apache-2.0(代码)和MIT(模型)双开源协议,完全免费,支持商业使用,无需额外授权。您可以自由修改、分发和用于商业项目。
在网页任务上,AutoGLM AI成功率55.2%,超越GPT-4o的18.2%,性能提升160%。在移动端控制上,成功率53.6%,领先GPT-4o的31.2%。此外,AutoGLM AI支持本地部署、数据安全可控、无厂商锁定。
本地部署:适合金融、医疗等高安全要求行业。云端部署:适合中小企业和快速原型验证。混合部署:平衡安全性和成本,适合大多数企业。
支持Ubuntu 20.04+、CentOS 8+、Windows 11 with WSL2。提供Docker容器化部署,支持Kubernetes集群部署,兼容主流云平台(AWS、Google Cloud、Azure)。
可以通过GitHub Issues报告问题,加入Discord社区获得实时帮助,查看官方文档和教程,或参与开源社区贡献。企业用户可选择付费技术支持服务。