構文解析 part2
今回は一瞬で終了します。 ひとくちメモレベル
本日の一言
ペロロジラのおかげで、自分が持つキャラの中でも神秘キャラが一番弱いことに気づきました。
思えば振動キャラが少ないと思ってたので、そればかり強化してたし、神秘キャラとをほぼ同一視してたのでこうなることは仕方なかったと思います。
現時点では、取り急ぎワカモと臨戦ホシノを強化することにしました。 アビドスのノートほぼ残ってない...
びびりっか
パーサークレートについて
rust には nom というパーサークレートが存在する。
chumsky というパーサークレートも存在する。
使い分け、わからん。
When to use this instead of nom? (chumsky の issue より)曰く、
(要約)
nom はバイナリ向け。 chumsky は文字列向け。
とのこと。
あと、Logos というクレートも存在し、これはLexerと呼ばれるもの。
Understanding the Differences – Lexer vs. Parser Explained
どれも文字列やバイナリ列などのコードを解釈し、オブジェクトやトークンに直すもの、そう理解してる。
Logos を使ってみる
use logos::Logos;
#[derive(Logos, Debug, PartialEq)]
#[logos(skip r"[ \t\n\f]+")] // Ignore this regex pattern between tokens
enum Token {
// Tokens can be literal strings, of any length.
#[token("+")]
Add,
#[regex("[0-9]")]
Number,
}
fn main() {
let mut lex = Token::lexer("1 + 1");
assert_eq!(lex.next(), Some(Ok(Token::Number)));
assert_eq!(lex.next(), Some(Ok(Token::Add)));
assert_eq!(lex.next(), Some(Ok(Token::Number)));
}
こんな感じで、大雑把にそれが何なのかを表してくれる。 文字列で出力するようにすれば
fn main() {
let mut lex = Token::lexer("1 + 1");
println!("{:?}, {:?}", lex.next().unwrap(), lex.span());
println!("{:?}, {:?}", lex.next().unwrap(), lex.span());
println!("{:?}, {:?}", lex.next().unwrap(), lex.span());
}
Ok(Number), 0..1
Ok(Add), 2..3
Ok(Number), 4..5
example の json を動かしてみる
コードはこれ git clone で持ってきた方が楽。
cargo run --example json -- <filename>.json
で動かせる。
{
"name": "yjsnpi",
"age": 24
}
Object(
{
"\"name\"": String(
"\"yjsnpi\"",
),
"\"age\"": Number(
24.0,
),
},
)
感想(2025/08/29 時点)
ほぼ私が想像するパーサー?
言語はもちろん、json みたいな独自のデータ記述言語を扱う時には Logos を使った方が手っ取り早いかもしれない。
chumsky を使ってみる
use chumsky::{
Parser,
error::Simple,
extra,
prelude::{any, end, just},
};
fn main() {
let base = ":helloworld";
let parser = just::<_, _, extra::Err<Simple<char>>>(':')
.then(any().repeated())
.then(end());
let x = parser.parse(base);
println!("{:?}", x);
}
parse というメソッドを使うことでパースされます。
them メソッドでパーサーを連結させることができます。
ドキュメント
ガイド をベースに軽く触れてみました。
repeated について
repeated メソッドを使うことによって、パーサーを繰り返し実行することができるようです。any パーサーは終端文字以外の全てにマッチするようなので、マッチする間は繰り返されます。
ところでこれ、イテレーターに近い動作をします。
IterParser
IterParser repeated メソッドをつけると、実装されたパーサーになります。
と言いつつ、使えるのは fold および collect のようです。 map や filter はrepeated の手前で行うらしい。
感想(2025/08/29 時点)
まだ正気よくわかってない。
nom
だいぶ前から使ってきた。
stream vs complete
最初のページに書かれている通り、一部のパーサーで動作が変わってくる。
alpha0 は 0 以上のアルファベットキャラクターをパースする。正規表現で言う[a-zA-Z]*
である。
"abcd"
のように仮に全てパースに成功する場合でも、stream は続きがあると想定され、パースが失敗するまで(;
などの文字にぶち当たるまで)はエラーを出力する。
コード例
use chumsky::{
IterParser, Parser,
error::Simple,
extra,
prelude::{any, end, just},
};
mod nom_parser {
use nom::{
IResult, Parser,
character::complete::{alpha0, char},
sequence::pair,
};
pub fn parser(i: &str) -> IResult<&str, (char, &str)> {
pair(char(':'), alpha0).parse(i)
}
}
fn main() {
let base = ":helloworld";
let parser = just::<_, _, extra::Err<Simple<char>>>(':')
.then(any().repeated().collect::<String>())
.then(end());
let x = parser.parse(base);
let y = nom_parser::parser(base);
println!("{:?}", x);
println!("{:?}", y);
}
ParseResult { output: Some(((':', "helloworld"), ())), errs: [] }
Ok(("", (':', "helloworld")))
下が nom によるパース結果です。 Result は nom の方がシンプルにできてるように見えます。
char はそのままだと型予測ができないので、何かしらの方法で型注釈をしないと使えなかったです。
pair でまとめましたが、この場合はこう書いた方が自然らしい。
let (i, r1) = char(':')(i)?;
let (i, r2) = alpha0(i)?;
Ok(i, (r1, r2))
参考サイト
Rust: nom によるパーサー実装が相当丁寧にまとまっていてわかりやすいです。
nom はバイナリ向きか
byte モジュールにバイトデータを扱うための関数があります。
nom は多種多様な用途で使用可能な構造に見えました。
しかし、文字列系の関数については chumsky の方が簡単に使える気がします。
まとめ
chumsky についてもっと深めたい。
nom は多機能なのと、バイナリに向いている気がします。
ところでバイナリ解析とは
バイナリも文字列同様、二進数列です。
文字解析の場合は記号や文字の並び順で解析し、それに従ってオブジェクトを作ります。
バイナリの場合はプロトコルや規格でどこに何があるか、1bit 単位で位置が決まってることがほとんどなので、
それに従って使いやすいオブジェクトに変換していきます。
本日の二言
いやぁまじで草可愛い。
ちっちゃな私聞いてて思わずタグ検索「はじめてのチュウ 重音テト」してしまった。
MIMI さんの PV 好きすぎて。