# SUIME **SUIME** 是一个基于深度神经网络的高性能输入法引擎项目。它采用现代化的 **C/S (Client/Server)** 架构,将繁重的 AI 推理任务与轻量级的输入交互界面解耦。 - 🚀 **核心智能**:基于 Rust 构建的高性能推理服务端,支持 INT8 量化 ONNX 模型。 - 🐧 **原生 Linux 支持**:提供基于 `fcitx5` 的高性能插件。 - 🪟 **跨平台愿景**:架构设计原生支持 Windows (计划基于 Rime/Weasel) 和 macOS。 - 🔌 **语言无关协议**:基于 MessagePack 的通用通信协议,允许任意语言编写前端。 --- ## 🏗️ 整体架构 项目分为两个核心部分:**智能服务端** 和 **平台相关客户端**。两者通过高效的二进制协议通信。 ```mermaid graph TD subgraph "AI Inference Server (Rust)" S[Socket Listener
UDS / TCP / Named Pipe] M[ONNX Runtime Engine] T[Tokenizer] S --> M M --> T end subgraph "Client Frontends" L[Linux Client
fcitx5-ext] W[Windows Client
Rime/Weasel Mod] Mac[macOS Client
Rime/Squirrel Mod] end L -- "Unix Domain Socket" --> S W -- "TCP / Named Pipes" --> S Mac -- "Unix Domain Socket / TCP" --> S ``` ### 1. 服务端 (Rust) - **并发模型**:使用 `std::thread` 或 `tokio` 处理多客户端连接。 - **推理引擎**:集成 `onnxruntime`,加载 INT8 量化模型以实现低延迟推理。 - **分词处理**:可选集成 `tokenizers` 库进行预处理。 - **通信适配**: - **Linux/macOS**:默认使用 **Unix Domain Socket (UDS)**,利用文件系统路径通信,零拷贝,极低延迟。 - **Windows**:自动切换为 **TCP (localhost)** 或 **Named Pipes**,确保跨平台兼容性。 - **数据协议**:接收/发送 **MessagePack** 序列化的二进制数据。 ### 2. 客户端 (Frontend) - **Linux (当前实现)**: - 基于 `fcitx5` 框架开发的 C++ 插件。 - 直接通过 UDS 与服务端通信。 - 负责捕获按键、获取上下文、渲染候选词面板。 - **Windows (中长期计划)**: - **目标框架**:基于 **Rime (中州韵)** 的 Windows 前端 **Weasel (小狼毫)** 进行定制开发。 - **实现方式**:修改 Weasel 源码,将其内部解码逻辑替换为通过网络调用 Rust 服务端。 - *注:由于 Windows TSF 架构复杂性,直接开发原生 IME 难度极大,复用 Rime 生态是最佳路径。* - **macOS (未来计划)**: - 基于 **Rime** 的 macOS 前端 **Squirrel (鼠须管)** 进行类似定制。 --- ## 📂 项目目录结构 ```text SUIME/ ├── Cargo.toml # Rust 服务端配置 ├── src/ # Rust 服务端源码 │ ├── main.rs # 入口:根据 OS 自动选择监听模式 (UDS/TCP) │ ├── model.rs # ONNX 模型加载与推理封装 │ ├── config.rs # 配置文件解析与加载,配置文件放在user_config_dir(类似~/.config/suime/config.toml),无配置可直接生成默认配置 │ ├── tokenizer.rs # 分词器封装 │ ├── protocol.rs # 跨平台通用的请求/响应结构体 (MessagePack) │ └── socket.rs # 通信层抽象 (支持 UDS/TCP 条件编译) │ └── personal.rs # 个性化词汇的登录管理和查询(未来扩展) ├── fcitx5-ext/ # [Linux] fcitx5 插件源码 │ ├── CMakeLists.txt │ ├── src/ │ │ ├── myengine.cpp # 输入法逻辑 │ │ ├── socket_client.cpp # Linux UDS 客户端实现 │ │ └── protocol.hpp # 与服务端一致的协议定义 ├── clients/ # [未来] 其他平台客户端 │ ├── weasel-mod/ # (计划) Windows Rime 定制版 │ └── squirrel-mod/ # (计划) macOS Rime 定制版 ├── assets/ # ONNX 模型文件 & 词表 └── README.md ``` --- ## 🛠️ 技术细节与接口定义 ### 通信协议 (Protocol) 为了保证跨语言和跨平台兼容性,应用层协议采用 **TLV (Type-Length-Value)** 风格封装 **MessagePack** 数据: 1. **Header**: 4 字节大端无符号整数 (`uint32_t`),表示后续 Payload 的长度。 2. **Payload**: MessagePack 序列化的二进制数据。 **数据结构定义 (`protocol.rs` / `protocol.hpp`):** ```rust // Rust 服务端定义 use serde::{Serialize, Deserialize}; #[derive(Debug, Serialize, Deserialize)] pub struct Request { pub pinyin: String, // 用户输入的拼音串 pub context: String, // 光标前文本 (用于上下文预测) } #[derive(Debug, Serialize, Deserialize)] pub struct Candidate { pub id: u32, // 词项 ID pub text: String, // 候选词文本 (也可由客户端查表) pub weight: f32, // 置信度/权重 } #[derive(Debug, Serialize, Deserialize)] pub struct Response { pub candidates: Vec, pub offset: usize, pub limit: usize, } ``` ### 跨平台 socket 适配策略 服务端代码使用 Rust 的条件编译 (`cfg`) 自动适配操作系统: - **`#[cfg(unix)]`**: - 使用 `std::os::unix::net::{UnixListener, UnixStream}`。 - 绑定路径:`/tmp/su-ime.sock` (可配置)。 - 优势:无需网络栈开销,权限控制基于文件系统。 - **`#[cfg(windows)]`**: - 使用 `std::net::{TcpListener, TcpStream}`。 - 绑定地址:`127.0.0.1:23333` (可配置)。 - 优势:原生支持 Windows,便于穿透 WSL 或容器边界。 --- ## 🗺️ 开发与部署路线图 ### 阶段一:Linux 原生完善 (Current) - [ ] 完成 Rust 服务端 UDS 通信与 ONNX 推理。 - [ ] 完成 fcitx5 插件开发与联调。 - [ ] 性能优化:引入线程池,减少上下文切换开销。 - [ ] 打包:提供 `.deb` / `.rpm` 安装包及 systemd 用户服务配置。 ### 阶段二:服务端跨平台重构 (Short Term) - [ ] **通信层抽象**:重构 `socket.rs`,实现 UDS/TCP 自动切换逻辑。 - [ ] **Windows 服务端验证**:在 Windows 上编译并运行 Rust 服务端,通过 TCP 暴露接口。 - [ ] **macOS 服务端验证**:验证 macOS 下 UDS 兼容性及签名问题。 ### 阶段三:Windows 客户端适配 (Mid-Long Term) - [ ] **Rime/Weasel 调研**:深入分析 Weasel 源码,确定 Hook 点。 - [ ] **原型开发**:Fork Weasel 项目,移除内置拼音引擎,植入 TCP 客户端模块。 - [ ] **UI 适配**:确保候选词窗口在高分屏下的渲染效果。 - [ ] **安装包制作**:制作 Windows 安装程序,包含 Rust 服务端 (后台服务) 和定制版 Weasel。 ### 阶段四:macOS 客户端适配 (Future) - [ ] 基于 Squirrel 进行类似 Weasel 的定制开发。 - [ ] 适配 macOS 输入法沙盒机制 (可能需要将服务端作为 LaunchAgent 运行)。 --- ## 🚀 快速开始 (Linux) ### 前置依赖 - Rust Toolchain (`rustup`) - CMake, g++, pkg-config - fcitx5 开发库 (`fcitx5-dev`, `libfcitx5utils-dev`) - libmsgpack-c ### 构建服务端 ```bash cd SUIME cargo build --release # 二进制文件位于 target/release/su-ime ``` ### 构建 fcitx5 插件 ```bash cd fcitx5-ext mkdir build && cd build cmake .. -DCMAKE_BUILD_TYPE=Release make sudo make install ``` ### 运行 1. 启动服务端: ```bash ./target/release/su-ime --model ../models/model.onnx --socket /tmp/su-ime.sock ``` 2. 重启 fcitx5 或在输入法设置中启用 "SUIME"。 3. 开始输入体验 AI 预测。 --- ## ⚠️ 注意事项 1. **延迟敏感**:输入法对延迟极其敏感。在跨平台架构(特别是 Windows TCP 模式)下,需严格测试网络栈带来的额外延迟(通常 localhost TCP 延迟 < 0.1ms,可接受)。 2. **安全性**: - Linux UDS 依赖文件权限,请确保 `/tmp/su-ime.sock` 仅对当前用户可见。 - Windows TCP 模式默认仅绑定 `127.0.0.1`,严禁绑定 `0.0.0.0` 以防外部攻击。 3. **服务保活**:建议配置 systemd (Linux) 或 Windows Service 来守护 Rust 服务端进程,确保其崩溃后能自动重启。 --- ## 📄 许可证 本项目采用 MIT 许可证。