IT之家3月22日消息,当地时间周四,AMD宣布推出专为本地运行大语言模型(LLM)设计的应用GAIA(发音为/ˈɡaɪ.ə/)并在Github开源,目前仅限于Windows平台。
GAIA是一款生成式AI应用,能够在WindowsPC上实现本地化私密运行LLM,并针对锐龙AI300系列处理器进行了优化,标志着AMD在边缘计算领域的又一重要布局。
在NPU上运行GAIA可提高AI特定任务的性能。从RyzenAI软件版本1.3开始,混合支持部署同时使用NPU和核显的量化LLM。
其核心组件基于ONNXTurnkeyML的LemonadeSDK开发,采用检索增强生成(RAG)技术框架,通过本地向量索引实现YouTube、GitHub等外部数据的实时检索与分析。
系统工作流包含LLM连接器、LlamaIndexRAG管道和代理Web服务器三大模块,支持Llama、Phi等主流模型。功能模块包含四大AI智能体:
Chaty:支持历史对话的聊天机器人
Clip:YouTube视频搜索与问答专家
Joker:具备幽默风格的笑话生成器
SimplePrompt:模型直接交互测试工具
硬件方面,AMD提供普通版与混合版两种安装方案。普通安装包兼容任意WindowsPC(含非AMD硬件设备),通过Ollama后端实现跨平台支持。
混合安装包专为配备锐龙AI300系列处理器的设备进行优化,可智能分配NPU与集成显卡的计算负载。AMD表示,RyzenAI软件自1.3版本起支持量化模型在NPU和集成显卡间的混合部署。
隐私与性能优势方面:
本地化处理确保医疗、金融等敏感行业数据不出境
响应延迟降低至毫秒级(相较云端方案缩短40-60%)
NPU专用架构实现每瓦性能提升,支持离线环境运行
该项目采用MIT开源协议,代码库已在GitHub开放。AMD特别鼓励开发者贡献自定义代理模块,目前已有多个行业定制化代理处于开发阶段。
此外,尽管GAIA目前暂不支持Linux/macOS系统,但AMD官方文档透露未来可能扩展多平台支持。