| Crates.io | sqlite-simple-tokenizer |
| lib.rs | sqlite-simple-tokenizer |
| version | 0.4.0 |
| created_at | 2025-08-20 11:29:53.893964+00 |
| updated_at | 2025-12-26 06:16:05.930785+00 |
| description | This's a run-time loadable extension of SQLite fts5, supports Chinese and pinyin word segmentation and search. |
| homepage | |
| repository | https://github.com/lukingcathy/sqlite-simple-tokenizer |
| max_upload_size | |
| id | 1803251 |
| size | 739,366 |
这是一个使用
rusqlite构建 SQLite fts5 插件的项目,其主要功能是为 SQLite 提供中文分词。这个项目可以作为 Rust 的 crate 使用,也可以将其编译成动态库在 SQLite 中加载和使用。
这个项目提供两种 SQLite 分词器,分别是 simple_tokenizer 和 jieba_tokenizer。这两种分词器均可处理汉语和英语两种语言,内置了汉语和英语常见停词表。汉语可以通过拼音(simple_tokenizer)或者词典(jieba_tokenizer)进行分词,而英语单词在分词后,会根据 Snowball Stemmer 进行了词根提取。
simple_tokenizer 对于汉语的处理,是将单字转换成 pinyin,并且辅以 simple_query 函数进行前缀匹配查询。simple_query 会将输入的字符串拆分成合法的拼音串,然后组装成 match 语句(包含原有字符串)。该 simple_query 方法中,如果提供的字符串的字符个数超过 20 个,将不再做拼音拆分。该 simple_query对字符串拆分成拼音的处理方式,极大程度上参考了 simple 这个项目,对此十分感谢 simple 项目提供的思路。
需要注意的是 simple_query 函数只是 simple_tokenizer 的辅助函数,不适用于 jieba_tokenizer
jieba_tokenizer 对于汉语的处理,是根据 jieba.rs 这个库进行词典分词。该分词器的分词处理,在文档查询和文档写入的时候均生效,使用 match 语法进行查询。
这个库在维护期间,支持的 Rust 最小版本均为当前稳定版本。这个 crate 会积极采用 Rust 中新稳定的一些语法和标准库接口。
这个库基于 rusqlite 0.38.0 上构建,目前支持的 SQLite 版本为 3.51.4。较低版本的 SQLite 将无法加载此拓展。如果作为 Rust crate 使用,推荐开启 rusqlite 的 bundled 功能,使用 rusqlite 内置的 SQLite,减小版本不匹配而出问题的可能性。
我们的 Semver 策略跟随 rusqlite 的 Semver。当 rusqlite 的主版本号和次版本号发生变更,我们也会跟随变更,并且发布到 crates.io。
安装 Rust 工具链
使用 cargo 进行构建
cargo build --release --features build_extension
在 sqlite 中使用 .load libsqlite_simple_tokenizer 进行加载
simple_query 示例-- 使用默认配置注册 tokenizer,即 simple 默认启用 pinyin 模块和停词表,jieba 默认启用停词表
CREATE VIRTUAL TABLE t1 USING fts5
(
text,
tokenize = 'simple'
);
CREATE VIRTUAL TABLE t1 USING fts5
(
text,
tokenize = 'jieba'
);
-- 不启用停词表
CREATE VIRTUAL TABLE t1 USING fts5
(
text,
tokenize = 'simple disable_stopword'
);
CREATE VIRTUAL TABLE t1 USING fts5
(
text,
tokenize = 'jieba disable_stopword'
);
-- simple 不启用 pinyin 模块
CREATE VIRTUAL TABLE t1 USING fts5
(
text,
tokenize = 'simple disable_pinyin'
);
-- simple 不启用 pinyin 模块和停词表
CREATE VIRTUAL TABLE t1 USING fts5
(
text,
tokenize = 'simple disable_pinyin disable_stopword'
);
-- 使用 simple_query 查询
SELECT *
FROM t1
WHERE text MATCH simple_query('国');
在 Rust 中使用这个分词器,需要引入 rusqlite 依赖, 使用 cargo add rusqlite sqlite-simple-tokenizer 安装依赖
let conn = Connection::open_in_memory().unwrap();
load( & conn).unwrap();
// 创建一个测试表
conn.execute("CREATE VIRTUAL TABLE t1 USING fts5(text, tokenize = 'simple');", [], ).unwrap();
// 插入数据
conn.execute(r#"INSERT INTO t1(text) VALUES ('中华人民共和国国歌'),('静夜思'),('国家'),('举头望明月'),('like'),('liking'),('liked'),('I''m making a sqlite tokenizer'),('I''m learning English');"#, [], ).unwrap();
// 查询
let mut stmt = conn.prepare("SELECT * FROM t1 WHERE text MATCH simple_query('国');").unwrap();
// 结果处理
let result = stmt.query_map([], | row| Ok(row.get::<_, String>(0).unwrap())).unwrap();
let mut vec = Vec::new();
for row in result {
let row = row.unwrap();
vec.push(row)
}
assert_eq!(["中华人民共和国国歌", "国家"], vec.as_slice());
除非您另有明确说明,否则任何您提交的代码许可应按上述 Apache 和 MIT 双重许可,并没有任何附加条款或条件。