From e11d519627aa5b4ce6bab8873992cddba35c7b2f Mon Sep 17 00:00:00 2001
From: Luke
Date: Sat, 5 Jul 2025 17:02:45 +0800
Subject: [PATCH] =?UTF-8?q?refactor:=20=E9=87=8D=E6=9E=84=E8=AF=AD?=
=?UTF-8?q?=E6=B3=95=E5=88=86=E6=9E=90=E6=A8=A1=E5=9D=97=E5=B9=B6=E4=BC=98?=
=?UTF-8?q?=E5=8C=96=E9=94=99=E8=AF=AF=E5=A4=84=E7=90=86=E6=9C=BA=E5=88=B6?=
MIME-Version: 1.0
Content-Type: text/plain; charset=UTF-8
Content-Transfer-Encoding: 8bit
- 优化了 ExpressionStatementParser、FlexibleSectionParser 和 JSONParser 的代码结构
- 改进了模块解析器 (ModuleParser) 的实现
- 重构了语法异常 (ParseException) 类,增加了错误位置信息
- 新增 ParseError 类用于收集和展示语法错误信息
- 改进了同步机制以更好地恢复解析过程
---
playground/BugFarm/Bug1/Main.snow | 4 +-
src/main/java/org/jcnc/snow/cli/SnowCLI.java | 2 +-
.../compiler/parser/context/MissingToken.java | 17 +-
.../compiler/parser/context/ParseError.java | 45 +++++
.../parser/context/ParseException.java | 72 ++++++-
.../compiler/parser/context/TokenStream.java | 92 ++++-----
.../parser/context/UnexpectedToken.java | 16 +-
.../parser/context/UnsupportedFeature.java | 16 +-
.../compiler/parser/core/ParserEngine.java | 67 ++++---
.../expression/PrattExpressionParser.java | 108 +++++-----
.../compiler/parser/module/ModuleParser.java | 75 ++++---
.../statement/ExpressionStatementParser.java | 65 +++---
.../parser/utils/FlexibleSectionParser.java | 73 +++----
.../compiler/parser/utils/JSONParser.java | 186 +++++++-----------
14 files changed, 457 insertions(+), 381 deletions(-)
create mode 100644 src/main/java/org/jcnc/snow/compiler/parser/context/ParseError.java
diff --git a/playground/BugFarm/Bug1/Main.snow b/playground/BugFarm/Bug1/Main.snow
index 3dae6e6..0065669 100644
--- a/playground/BugFarm/Bug1/Main.snow
+++ b/playground/BugFarm/Bug1/Main.snow
@@ -1,7 +1,7 @@
function: main
- return_type: int
+ return_type: int 111
body:
- declare num1 :int = 3.1 G
+
return 65537
end body
end function
\ No newline at end of file
diff --git a/src/main/java/org/jcnc/snow/cli/SnowCLI.java b/src/main/java/org/jcnc/snow/cli/SnowCLI.java
index 0afa4e4..0ce6ba0 100644
--- a/src/main/java/org/jcnc/snow/cli/SnowCLI.java
+++ b/src/main/java/org/jcnc/snow/cli/SnowCLI.java
@@ -91,7 +91,7 @@ public class SnowCLI {
System.exit(exitCode);
} catch (Exception e) {
// 捕获命令执行过程中的异常并打印错误消息
-// System.err.println("Error: " + e.getMessage());
+ System.err.println(e.getMessage());
System.exit(1);
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/MissingToken.java b/src/main/java/org/jcnc/snow/compiler/parser/context/MissingToken.java
index b56ae02..3610426 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/context/MissingToken.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/MissingToken.java
@@ -1,11 +1,22 @@
package org.jcnc.snow.compiler.parser.context;
/**
- * 当语法结构缺失必须出现的 Token 时抛出。
+ * 表示在语法分析过程中,必须出现的 Token 缺失时抛出的异常。
+ *
+ * 当分析器检测到输入流中缺少某个预期 Token 时,会抛出此异常,以便准确地指明语法错误位置。
+ * 该异常包含了缺失 Token 的名称以及发生缺失的位置(行号和列号),便于错误定位和后续处理。
+ *
*/
public final class MissingToken extends ParseException {
- public MissingToken(String message) {
- super(message);
+ /**
+ * 构造一个表示缺失 Token 的异常。
+ *
+ * @param expected 预期但未出现的 Token 名称
+ * @param line 发生异常的行号
+ * @param column 发生异常的列号
+ */
+ public MissingToken(String expected, int line, int column) {
+ super("缺失 Token: " + expected, line, column);
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/ParseError.java b/src/main/java/org/jcnc/snow/compiler/parser/context/ParseError.java
new file mode 100644
index 0000000..24c1d27
--- /dev/null
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/ParseError.java
@@ -0,0 +1,45 @@
+package org.jcnc.snow.compiler.parser.context;
+
+/**
+ * 语法错误的数据传输对象(DTO)。
+ *
+ * 用于收集和展示语法分析过程中检测到的错误信息,便于错误定位和报告。
+ * 包含出错文件、行号、列号和具体错误信息等字段。
+ *
+ */
+public class ParseError {
+
+ /** 出错的文件名 */
+ private final String file;
+ /** 出错的行号 */
+ private final int line;
+ /** 出错的列号 */
+ private final int column;
+ /** 错误信息描述 */
+ private final String message;
+
+ /**
+ * 构造一个语法错误数据对象。
+ *
+ * @param file 出错文件名
+ * @param line 出错行号
+ * @param column 出错列号
+ * @param message 错误信息描述
+ */
+ public ParseError(String file, int line, int column, String message) {
+ this.file = file;
+ this.line = line;
+ this.column = column;
+ this.message = message;
+ }
+
+ /**
+ * 返回该错误对象的字符串表示。
+ *
+ * @return 格式化后的错误描述字符串
+ */
+ @Override
+ public String toString() {
+ return file + ": 行 " + line + ", 列 " + column + ": " + message;
+ }
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/ParseException.java b/src/main/java/org/jcnc/snow/compiler/parser/context/ParseException.java
index 0262868..97ceb33 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/context/ParseException.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/ParseException.java
@@ -1,21 +1,75 @@
package org.jcnc.snow.compiler.parser.context;
/**
- * {@code ParseException}——语法分析阶段所有错误的基类。
+ * 语法分析阶段所有错误的基类。
+ *
+ * 本异常作为语法分析相关错误的统一父类,屏蔽了堆栈信息,确保在命令行界面(CLI)输出时只占用一行,方便用户快速定位问题。
+ * 通过 {@code permits} 关键字,限定了可被继承的异常类型,增强类型安全性。
+ *
*
- * 声明为 sealed,仅允许 {@link UnexpectedToken}、
- * {@link MissingToken}、{@link UnsupportedFeature} 三个受信子类继承,
- * 以便调用方根据异常类型进行精确处理。
+ *
+ * 该异常携带错误发生的行号、列号和具体原因信息,用于语法错误的精确报告和输出展示。
+ *
*/
public sealed class ParseException extends RuntimeException
- permits UnexpectedToken, MissingToken, UnsupportedFeature {
+ permits MissingToken, UnexpectedToken, UnsupportedFeature {
+
+ /** 出错行号(从 1 开始) */
+ private final int line;
+ /** 出错列号(从 1 开始) */
+ private final int column;
+ /** 错误原因描述 */
+ private final String reason;
/**
- * 构造解析异常并附带错误消息。
+ * 构造语法分析异常。
*
- * @param message 错误描述
+ * @param reason 错误原因描述
+ * @param line 出错行号(从 1 开始)
+ * @param column 出错列号(从 1 开始)
*/
- public ParseException(String message) {
- super(message);
+ public ParseException(String reason, int line, int column) {
+ // 禁用 cause / suppression / stackTrace,确保 CLI 输出简洁
+ super(reason, null, false, false);
+ this.reason = reason;
+ this.line = line;
+ this.column = column;
+ }
+
+ /**
+ * 禁用堆栈信息的生成,保证异常始终为单行输出。
+ *
+ * @return 当前异常对象自身
+ */
+ @Override
+ public synchronized Throwable fillInStackTrace() {
+ return this;
+ }
+
+ /**
+ * 获取出错行号(从 1 开始)。
+ *
+ * @return 行号
+ */
+ public int getLine() {
+ return line;
+ }
+
+ /**
+ * 获取出错列号(从 1 开始)。
+ *
+ * @return 列号
+ */
+ public int getColumn() {
+ return column;
+ }
+
+ /**
+ * 获取错误原因描述。
+ *
+ * @return 错误原因
+ */
+ public String getReason() {
+ return reason;
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/TokenStream.java b/src/main/java/org/jcnc/snow/compiler/parser/context/TokenStream.java
index 9169318..07a4ffb 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/context/TokenStream.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/TokenStream.java
@@ -6,27 +6,29 @@ import org.jcnc.snow.compiler.lexer.token.TokenType;
import java.util.List;
/**
- * {@code TokenStream} 封装了一个 Token 列表并维护当前解析位置,是语法分析器读取词法单元的核心工具类。
- *
- * 提供前瞻(peek)、消费(next)、匹配(match)、断言(expect)等常用操作,
- * 支持前向查看和异常处理,适用于递归下降解析等常见语法构建策略。
+ * {@code TokenStream} 封装了 Token 序列并维护当前解析位置,是语法分析器读取词法单元的核心工具类。
+ *
+ * 该类提供前瞻(peek)、消费(next)、匹配(match)、断言(expect)等常用操作,
+ * 支持前向查看和异常处理,适用于递归下降等常见语法解析策略。
+ * 设计上自动跳过注释(COMMENT)token,并对越界情况提供自动构造的 EOF(文件结束)token,
+ * 有效提升语法处理的健壮性与易用性。
+ *
*/
public class TokenStream {
/**
- * 源 Token 列表。
+ * 源 Token 列表
*/
private final List tokens;
-
/**
- * 当前解析位置索引。
+ * 当前解析位置索引
*/
private int pos = 0;
/**
* 使用 Token 列表构造 TokenStream。
*
- * @param tokens 由词法分析器产生的 Token 集合
+ * @param tokens 词法分析器输出的 Token 集合
* @throws NullPointerException 如果 tokens 为 null
*/
public TokenStream(List tokens) {
@@ -37,14 +39,13 @@ public class TokenStream {
}
/**
- * 向前查看指定偏移量处的 Token(不移动位置)。
- * 会在 offset==0 时自动跳过当前位置的所有注释(COMMENT)token。
+ * 向前查看指定偏移量处的 Token(不移动当前位置)。
+ * 在 {@code offset == 0} 时自动跳过所有连续的注释(COMMENT)token。
*
- * @param offset 相对当前位置的偏移量(0 表示当前 token)
+ * @param offset 相对当前位置的偏移量(0 表示当前位置 token)
* @return 指定位置的 Token;若越界则返回自动构造的 EOF Token
*/
public Token peek(int offset) {
- // 只在 offset==0 时跳注释,向前多步 peek 由调用方控制
if (offset == 0) {
skipTrivia();
}
@@ -56,9 +57,9 @@ public class TokenStream {
}
/**
- * 查看当前位置的 Token,等效于 {@code peek(0)}。
+ * 查看当前位置的有效 Token(已跳过注释)。
*
- * @return 当前有效 Token(已跳过注释)
+ * @return 当前 Token,等效于 {@code peek(0)}
*/
public Token peek() {
skipTrivia();
@@ -66,21 +67,21 @@ public class TokenStream {
}
/**
- * 消费当前位置的 Token 并返回,位置前移。注释 token 会被自动跳过。
+ * 消费当前位置的有效 Token 并前移指针,自动跳过注释 token。
*
- * @return 被消费的有效 Token(已跳过注释)
+ * @return 被消费的有效 Token
*/
public Token next() {
- Token t = peek(); // peek() 已跳过注释
- pos++; // 指针指向下一个 raw token
- skipTrivia(); // 立即吞掉紧随其后的注释(若有)
+ Token t = peek();
+ pos++;
+ skipTrivia();
return t;
}
/**
- * 匹配当前 Token 的词素与指定字符串,若匹配则消费该 token 并前移指针。
+ * 若当前 Token 的词素等于指定字符串,则消费该 Token 并前移,否则不变。
*
- * @param lexeme 待匹配的词素字符串
+ * @param lexeme 目标词素字符串
* @return 匹配成功返回 true,否则返回 false
*/
public boolean match(String lexeme) {
@@ -92,75 +93,60 @@ public class TokenStream {
}
/**
- * 断言当前 Token 的词素与指定值相符,否则抛出 {@link ParseException}。
- * 匹配成功会消费该 token 并前移指针。
+ * 断言当前位置 Token 的词素等于指定值,否则抛出 {@link ParseException}。
+ * 匹配成功时消费该 Token 并前移。
*
- * @param lexeme 期望的词素值
+ * @param lexeme 期望的词素字符串
* @return 匹配成功的 Token
- * @throws ParseException 若词素不符
+ * @throws ParseException 若词素不匹配
*/
public Token expect(String lexeme) {
Token t = peek();
if (!t.getLexeme().equals(lexeme)) {
throw new ParseException(
- "期望的词素是'" + lexeme + "',但得到的是'" + t.getLexeme() +
- "在" + t.getLine() + ":" + t.getCol()
+ "期望的词素是 '" + lexeme + "',但得到的是 '" + t.getLexeme() + "'",
+ t.getLine(), t.getCol()
);
}
return next();
}
/**
- * 断言当前 Token 类型为指定类型,否则抛出 {@link ParseException}。
- * 匹配成功会消费该 token 并前移指针。
+ * 断言当前位置 Token 类型为指定类型,否则抛出 {@link ParseException}。
+ * 匹配成功时消费该 Token 并前移。
*
* @param type 期望的 Token 类型
* @return 匹配成功的 Token
- * @throws ParseException 若类型不匹配
+ * @throws ParseException 若类型不符
*/
public Token expectType(TokenType type) {
Token t = peek();
if (t.getType() != type) {
throw new ParseException(
- "期望的标记类型为 " + type + " 但实际得到的是 " + t.getType() +
- " ('" + t.getLexeme() + "') 在 " + t.getLine() + ":" + t.getCol()
+ "期望的标记类型为 " + type + ",但实际得到的是 " + t.getType() +
+ " ('" + t.getLexeme() + "')",
+ t.getLine(), t.getCol()
);
}
return next();
}
/**
- * 判断是否“已经”到达文件末尾(EOF)。
+ * 判断是否已到达文件末尾(EOF)。
*
- * @return 若当前位置 Token 为 EOF,则返回 true,否则返回 false
+ * @return 若当前位置 Token 为 EOF,则返回 true;否则返回 false
*/
public boolean isAtEnd() {
- return peek().getType() != TokenType.EOF;
+ return peek().getType() == TokenType.EOF;
}
/**
- * 跳过所有连续的注释(COMMENT)token。
- *
- *
- * 此方法会检查当前指针 pos 所指向的 token,
- * 如果其类型为 TokenType.COMMENT,则直接将指针递增,
- * 直到遇到非 COMMENT 类型或到达 token 列表末尾。
- *
- *
- *
- * 注意:此方法只会跳过注释,不会递归或调用任何
- * 会产生递归的方法(如 peek()/next()),以避免堆栈溢出。
- *
- *
- *
- * 使用场景:词法分析产物中允许出现注释 token,语法分析时需要自动跳过它们,
- * 保证 parser 只处理有效语法 token。
- *
+ * 跳过所有连续的注释(COMMENT)token,使解析器总是定位在第一个有效 Token 上。
*/
private void skipTrivia() {
while (pos < tokens.size()
&& tokens.get(pos).getType() == TokenType.COMMENT) {
- pos++; // 直接跳过 COMMENT 类型
+ pos++;
}
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/UnexpectedToken.java b/src/main/java/org/jcnc/snow/compiler/parser/context/UnexpectedToken.java
index bfa5ecd..ebaaef7 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/context/UnexpectedToken.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/UnexpectedToken.java
@@ -1,11 +1,21 @@
package org.jcnc.snow.compiler.parser.context;
/**
- * 当解析过程中遇到意料之外或无法识别的 Token 时抛出。
+ * 表示在语法分析过程中遇到意料之外或无法识别的 Token 时抛出的异常。
+ *
+ * 当分析器检测到实际遇到的 Token 不符合语法规则,或与预期类型不符时会抛出本异常,便于错误定位和报告。
+ *
*/
public final class UnexpectedToken extends ParseException {
- public UnexpectedToken(String message) {
- super(message);
+ /**
+ * 构造一个“意外的 Token”异常。
+ *
+ * @param actual 实际遇到的 Token 描述
+ * @param line 发生异常的行号
+ * @param column 发生异常的列号
+ */
+ public UnexpectedToken(String actual, int line, int column) {
+ super("意外的 Token: " + actual, line, column);
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/UnsupportedFeature.java b/src/main/java/org/jcnc/snow/compiler/parser/context/UnsupportedFeature.java
index 558f32a..a1288bb 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/context/UnsupportedFeature.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/UnsupportedFeature.java
@@ -1,11 +1,21 @@
package org.jcnc.snow.compiler.parser.context;
/**
- * 当源码使用了当前编译器尚未支持的语言特性或语法时抛出。
+ * 表示在语法分析过程中使用了尚未支持的语法或语言特性时抛出的异常。
+ *
+ * 当用户使用了当前编译器实现尚不支持的语法、关键字或特性时,语法分析器将抛出此异常,用于清晰提示和错误报告。
+ *
*/
public final class UnsupportedFeature extends ParseException {
- public UnsupportedFeature(String message) {
- super(message);
+ /**
+ * 构造一个“暂未支持的语法/特性”异常。
+ *
+ * @param feature 未被支持的语法或特性描述
+ * @param line 发生异常的行号
+ * @param column 发生异常的列号
+ */
+ public UnsupportedFeature(String feature, int line, int column) {
+ super("暂未支持的语法/特性: " + feature, line, column);
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/core/ParserEngine.java b/src/main/java/org/jcnc/snow/compiler/parser/core/ParserEngine.java
index f278b41..93f3547 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/core/ParserEngine.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/core/ParserEngine.java
@@ -3,9 +3,7 @@ package org.jcnc.snow.compiler.parser.core;
import org.jcnc.snow.compiler.lexer.token.TokenType;
import org.jcnc.snow.compiler.parser.ast.base.Node;
import org.jcnc.snow.compiler.parser.base.TopLevelParser;
-import org.jcnc.snow.compiler.parser.context.ParserContext;
-import org.jcnc.snow.compiler.parser.context.TokenStream;
-import org.jcnc.snow.compiler.parser.context.UnexpectedToken;
+import org.jcnc.snow.compiler.parser.context.*;
import org.jcnc.snow.compiler.parser.factory.TopLevelParserFactory;
import java.util.ArrayList;
@@ -14,18 +12,36 @@ import java.util.StringJoiner;
/**
* 语法解析引擎(ParserEngine)。
- * 驱动顶层解析,并在捕获异常后通过同步机制恢复,防止死循环。
+ *
+ * 负责驱动顶层语法解析,并统一处理、收集所有语法异常,防止死循环,确保整体解析流程的健壮性与鲁棒性。
+ * 支持基于同步点的错误恢复,适用于命令式和脚本式语法环境。
+ *
+ *
+ *
+ * 本引擎以异常收集为核心设计,所有捕获到的 {@link ParseException} 会被聚合,在分析结束后一次性统一抛出。
+ * 同时,在解析出错时会通过同步(synchronize)机制,跳过错误片段以恢复到有效解析点,避免因指针停滞导致的死循环。
+ *
*/
public record ParserEngine(ParserContext ctx) {
- /** 解析整份 TokenStream,返回顶层 AST 节点列表。 */
+ /**
+ * 解析整个 TokenStream,返回顶层 AST 节点列表。
+ *
+ * 过程中如遇语法异常,均会被收集并在最后聚合抛出,避免单点失败导致整个解析中断。
+ *
+ *
+ * @return 解析所得的顶层 AST 节点列表
+ * @throws UnexpectedToken 当存在语法错误时,统一抛出聚合异常
+ */
public List parse() {
List nodes = new ArrayList<>();
- List errs = new ArrayList<>();
- TokenStream ts = ctx.getTokens();
+ List errs = new ArrayList<>();
+
+ TokenStream ts = ctx.getTokens();
+ String file = ctx.getSourceName();
// 主循环至 EOF
- while (ts.isAtEnd()) {
+ while (!ts.isAtEnd()) {
// 跳过空行
if (ts.peek().getType() == TokenType.NEWLINE) {
ts.next();
@@ -35,39 +51,46 @@ public record ParserEngine(ParserContext ctx) {
TopLevelParser parser = TopLevelParserFactory.get(ts.peek().getLexeme());
try {
nodes.add(parser.parse(ctx));
- } catch (Exception ex) {
- errs.add(ex.getMessage());
- synchronize(ts); // 出错后同步恢复
+ } catch (ParseException ex) {
+ // 收集错误并尝试同步
+ errs.add(new ParseError(file, ex.getLine(), ex.getColumn(), ex.getReason()));
+ synchronize(ts);
}
}
- // 聚合并抛出全部语法错误
+ /* ───── 统一抛出聚合异常 ───── */
if (!errs.isEmpty()) {
StringJoiner sj = new StringJoiner("\n - ", "", "");
- errs.forEach(sj::add);
- throw new UnexpectedToken("解析过程中检测到 "
- + errs.size() + " 处错误:\n - " + sj);
+ errs.forEach(e -> sj.add(e.toString()));
+
+ String msg = "解析过程中检测到 " + errs.size() + " 处错误:\n - " + sj;
+ throw new UnexpectedToken(msg, 0, 0);
}
return nodes;
}
/**
- * 同步:跳过当前行或直到遇到 **显式注册** 的顶层关键字。
- * 这样可避免因默认脚本解析器导致指针停滞而进入死循环。
+ * 同步:跳过当前行或直到遇到显式注册的顶层关键字。
+ *
+ * 该机制用于语法出错后恢复到下一个可能的有效解析点,防止指针停滞导致死循环或重复抛错。
+ * 同步过程中会优先跳过本行所有未识别 token,并在遇到换行或注册关键字时停止,随后跳过连续空行。
+ *
+ *
+ * @param ts 词法 token 流
*/
private void synchronize(TokenStream ts) {
- while (ts.isAtEnd()) {
+ while (!ts.isAtEnd()) {
if (ts.peek().getType() == TokenType.NEWLINE) {
ts.next();
break;
}
if (TopLevelParserFactory.isRegistered(ts.peek().getLexeme())) {
- break; // 仅在已注册关键字处停下
+ break; // 仅在已注册关键字处停下
}
- ts.next(); // 继续丢弃 token
+ ts.next(); // 继续丢弃 token
}
- // 清掉后续连续空行
- while (ts.isAtEnd() && ts.peek().getType() == TokenType.NEWLINE) {
+ // 清理后续连续空行
+ while (!ts.isAtEnd() && ts.peek().getType() == TokenType.NEWLINE) {
ts.next();
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/expression/PrattExpressionParser.java b/src/main/java/org/jcnc/snow/compiler/parser/expression/PrattExpressionParser.java
index c0a869e..df2ee36 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/expression/PrattExpressionParser.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/expression/PrattExpressionParser.java
@@ -13,64 +13,57 @@ import java.util.HashMap;
import java.util.Map;
/**
- * {@code PrattExpressionParser} 是基于 Pratt 算法实现的表达式解析器。
+ * {@code PrattExpressionParser} 基于 Pratt 算法的表达式解析器实现。
*
- * 它支持灵活的运算符优先级控制,结合前缀(PrefixParselet)和中缀(InfixParselet)解析器,
- * 可高效解析复杂表达式结构,包括:
- *
- * - 字面量(数字、字符串)
- * - 标识符
- * - 函数调用、成员访问
- * - 带括号的表达式、二元运算符
- *
- * 本类提供统一注册机制和递归表达式解析入口。
+ * 该类通过前缀(PrefixParselet)和中缀(InfixParselet)解析器注册表,
+ * 支持灵活扩展的表达式语法,包括字面量、变量、函数调用、成员访问和各种运算符表达式。
+ *
+ *
+ * 运算符优先级通过枚举控制,结合递归解析实现高效的优先级处理和语法结构解析。
+ * 未注册的语法类型或运算符会统一抛出 {@link UnsupportedFeature} 异常。
*
*/
public class PrattExpressionParser implements ExpressionParser {
- /**
- * 前缀解析器注册表:按 Token 类型映射
- */
+ /** 前缀解析器注册表(按 Token 类型名索引) */
private static final Map prefixes = new HashMap<>();
-
- /**
- * 中缀解析器注册表:按运算符词素映射
- */
+ /** 中缀解析器注册表(按运算符词素索引) */
private static final Map infixes = new HashMap<>();
static {
- // 注册前缀解析器
- prefixes.put(TokenType.NUMBER_LITERAL.name(), new NumberLiteralParselet());
- prefixes.put(TokenType.IDENTIFIER.name(), new IdentifierParselet());
- prefixes.put(TokenType.LPAREN.name(), new GroupingParselet());
- prefixes.put(TokenType.STRING_LITERAL.name(), new StringLiteralParselet());
- prefixes.put(TokenType.BOOL_LITERAL.name(), new BoolLiteralParselet());
+ // 前缀解析器注册
+ prefixes.put(TokenType.NUMBER_LITERAL.name(), new NumberLiteralParselet());
+ prefixes.put(TokenType.IDENTIFIER.name(), new IdentifierParselet());
+ prefixes.put(TokenType.LPAREN.name(), new GroupingParselet());
+ prefixes.put(TokenType.STRING_LITERAL.name(), new StringLiteralParselet());
+ prefixes.put(TokenType.BOOL_LITERAL.name(), new BoolLiteralParselet());
- // 注册一元前缀运算
+ // 一元前缀运算符
prefixes.put(TokenType.MINUS.name(), new UnaryOperatorParselet());
- prefixes.put(TokenType.NOT.name(), new UnaryOperatorParselet());
+ prefixes.put(TokenType.NOT.name(), new UnaryOperatorParselet());
- // 注册中缀解析器
- infixes.put("+", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("-", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("*", new BinaryOperatorParselet(Precedence.PRODUCT, true));
- infixes.put("/", new BinaryOperatorParselet(Precedence.PRODUCT, true));
- infixes.put("%", new BinaryOperatorParselet(Precedence.PRODUCT, true));
- infixes.put(">", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("<", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("==", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("!=", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put(">=", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("<=", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("(", new CallParselet());
- infixes.put(".", new MemberParselet());
+ // 中缀解析器注册
+ infixes.put("+", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("-", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("*", new BinaryOperatorParselet(Precedence.PRODUCT, true));
+ infixes.put("/", new BinaryOperatorParselet(Precedence.PRODUCT, true));
+ infixes.put("%", new BinaryOperatorParselet(Precedence.PRODUCT, true));
+ infixes.put(">", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("<", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("==", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("!=", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put(">=", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("<=", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("(", new CallParselet());
+ infixes.put(".", new MemberParselet());
}
/**
- * 表达式解析入口,使用最低优先级启动递归解析。
+ * 表达式解析统一入口。
+ * 以最低优先级启动递归下降,适配任意表达式复杂度。
*
- * @param ctx 当前语法解析上下文
- * @return 表达式抽象语法树节点
+ * @param ctx 当前解析上下文
+ * @return 解析后的表达式 AST 节点
*/
@Override
public ExpressionNode parse(ParserContext ctx) {
@@ -78,28 +71,41 @@ public class PrattExpressionParser implements ExpressionParser {
}
/**
- * 根据指定优先级解析表达式。
+ * 按指定优先级解析表达式。Pratt 算法主循环。
+ *
+ * 先根据当前 Token 类型查找前缀解析器进行初始解析,
+ * 然后根据优先级不断递归处理中缀运算符和右侧表达式。
+ *
*
- * @param ctx 当前上下文
- * @param prec 当前优先级阈值
+ * @param ctx 解析上下文
+ * @param prec 当前运算符优先级阈值
* @return 构建完成的表达式节点
+ * @throws UnsupportedFeature 若遇到未注册的前缀或中缀解析器
*/
ExpressionNode parseExpression(ParserContext ctx, Precedence prec) {
Token token = ctx.getTokens().next();
PrefixParselet prefix = prefixes.get(token.getType().name());
if (prefix == null) {
- throw new UnsupportedFeature("没有为该 Token 类型注册前缀解析器: " + token.getType());
+ throw new UnsupportedFeature(
+ "没有为该 Token 类型注册前缀解析器: " + token.getType(),
+ token.getLine(),
+ token.getCol()
+ );
}
ExpressionNode left = prefix.parse(ctx, token);
- while (ctx.getTokens().isAtEnd()
+ while (!ctx.getTokens().isAtEnd()
&& prec.ordinal() < nextPrecedence(ctx)) {
String lex = ctx.getTokens().peek().getLexeme();
InfixParselet infix = infixes.get(lex);
if (infix == null) {
+ Token t = ctx.getTokens().peek();
throw new UnsupportedFeature(
- "没有为该 Token 类型注册中缀解析器: " + token.getType());
+ "没有为该运算符注册中缀解析器: '" + lex + "'",
+ t.getLine(),
+ t.getCol()
+ );
}
left = infix.parse(ctx, left);
}
@@ -107,10 +113,10 @@ public class PrattExpressionParser implements ExpressionParser {
}
/**
- * 获取下一个中缀解析器的优先级,用于判断是否继续解析。
+ * 获取下一个中缀解析器的优先级(Pratt 算法核心)。
*
- * @param ctx 当前上下文
- * @return 优先级枚举 ordinal 值;若无解析器则为 -1
+ * @param ctx 当前解析上下文
+ * @return 下一个中缀运算符的优先级序号;若无解析器则为 -1
*/
private int nextPrecedence(ParserContext ctx) {
InfixParselet infix = infixes.get(ctx.getTokens().peek().getLexeme());
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/module/ModuleParser.java b/src/main/java/org/jcnc/snow/compiler/parser/module/ModuleParser.java
index bcf2555..8a21e70 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/module/ModuleParser.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/module/ModuleParser.java
@@ -1,12 +1,12 @@
package org.jcnc.snow.compiler.parser.module;
import org.jcnc.snow.compiler.lexer.token.TokenType;
+import org.jcnc.snow.compiler.parser.ast.FunctionNode;
+import org.jcnc.snow.compiler.parser.ast.ImportNode;
+import org.jcnc.snow.compiler.parser.ast.ModuleNode;
import org.jcnc.snow.compiler.parser.base.TopLevelParser;
import org.jcnc.snow.compiler.parser.context.ParserContext;
import org.jcnc.snow.compiler.parser.context.TokenStream;
-import org.jcnc.snow.compiler.parser.ast.ImportNode;
-import org.jcnc.snow.compiler.parser.ast.ModuleNode;
-import org.jcnc.snow.compiler.parser.ast.FunctionNode;
import org.jcnc.snow.compiler.parser.context.UnexpectedToken;
import org.jcnc.snow.compiler.parser.function.FunctionParser;
@@ -14,88 +14,85 @@ import java.util.ArrayList;
import java.util.List;
/**
- * {@code ModuleParser} 类负责解析源码中的模块定义结构,属于顶层结构解析器的一种。
+ * {@code ModuleParser} 负责解析源码中的模块结构,是顶层结构解析器实现之一。
*
- * 模块中可包含多个导入语句和函数定义,导入语句可在模块中任意位置出现,
- * 同时支持空行,空行将被自动忽略,不影响语法结构的正确性。
+ * 模块定义可包含多个导入(import)语句和函数定义(function),
+ * 导入语句可在模块中任意位置出现,且允许模块体中穿插任意数量的空行(空行会被自动忽略,不影响语法结构)。
+ *
+ *
+ *
+ * 典型模块语法结构:
+ *
+ * module: mymod
+ * import ...
+ * function ...
+ * ...
+ * end module
+ *
+ *
*/
public class ModuleParser implements TopLevelParser {
/**
- * 解析一个模块定义块,返回构建好的 {@link ModuleNode} 对象。
+ * 解析一个模块定义块,返回完整的 {@link ModuleNode} 语法树节点。
*
- * 本方法的语法流程包括:
+ * 解析过程包括:
*
- * - 匹配模块声明开头 {@code module: IDENTIFIER}。
- * - 收集模块体中的 import 语句与 function 定义,允许穿插空行。
- * - 模块结尾必须为 {@code end module},且后接换行符。
+ * - 匹配模块声明起始 {@code module: IDENTIFIER}。
+ * - 收集模块体内所有 import 和 function 语句,允许穿插空行。
+ * - 匹配模块结束 {@code end module}。
*
- * 所有语法错误将在解析过程中抛出异常,以便准确反馈问题位置和原因。
+ * 若遇到未识别的语句,将抛出 {@link UnexpectedToken} 异常,定位错误位置和原因。
+ *
*
- * @param ctx 当前解析器上下文,包含词法流、状态信息等。
- * @return 返回一个 {@link ModuleNode} 实例,表示完整模块的语法结构。
- * @throws UnexpectedToken 当模块体中出现未识别的语句时抛出。
+ * @param ctx 当前解析上下文(包含词法流等状态)
+ * @return 解析得到的 {@link ModuleNode} 实例
+ * @throws UnexpectedToken 当模块体中出现未识别的顶层语句时抛出
*/
@Override
public ModuleNode parse(ParserContext ctx) {
- // 获取当前上下文中提供的词法流
TokenStream ts = ctx.getTokens();
- // 获取当前 token 的行号、列号和文件名
- int line = ctx.getTokens().peek().getLine();
- int column = ctx.getTokens().peek().getCol();
+ int line = ts.peek().getLine();
+ int column = ts.peek().getCol();
String file = ctx.getSourceName();
- // 期望模块声明以关键字 "module:" 开始
ts.expect("module");
ts.expect(":");
-
- // 读取模块名称(要求为标识符类型的词法单元)
String name = ts.expectType(TokenType.IDENTIFIER).getLexeme();
-
- // 模块声明必须以换行符结束
ts.expectType(TokenType.NEWLINE);
- // 初始化模块的导入节点列表与函数节点列表
List imports = new ArrayList<>();
List functions = new ArrayList<>();
- // 创建 import 与 function 的子解析器
ImportParser importParser = new ImportParser();
FunctionParser funcParser = new FunctionParser();
- // 进入模块主体内容解析循环
while (true) {
- // 跳过所有空行(即连续的 NEWLINE)
if (ts.peek().getType() == TokenType.NEWLINE) {
ts.next();
continue;
}
-
- // 若遇到 "end",则表明模块定义结束
if ("end".equals(ts.peek().getLexeme())) {
break;
}
-
- // 根据当前行首关键字决定解析器的选择
String lex = ts.peek().getLexeme();
if ("import".equals(lex)) {
- // 调用导入语句解析器,解析多个模块导入节点
imports.addAll(importParser.parse(ctx));
} else if ("function".equals(lex)) {
- // 调用函数定义解析器,解析单个函数结构
functions.add(funcParser.parse(ctx));
} else {
- // 遇到无法识别的语句开头,抛出异常并提供详细提示
- throw new UnexpectedToken("Unexpected token in module: " + lex);
+ throw new UnexpectedToken(
+ "Unexpected token in module: " + lex,
+ ts.peek().getLine(),
+ ts.peek().getCol()
+ );
}
}
- // 确保模块体以 "end module" 结束
ts.expect("end");
ts.expect("module");
- // 构建并返回完整的模块语法树节点
return new ModuleNode(name, imports, functions, line, column, file);
}
-}
\ No newline at end of file
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/statement/ExpressionStatementParser.java b/src/main/java/org/jcnc/snow/compiler/parser/statement/ExpressionStatementParser.java
index 3c14a90..f824b6b 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/statement/ExpressionStatementParser.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/statement/ExpressionStatementParser.java
@@ -2,8 +2,8 @@ package org.jcnc.snow.compiler.parser.statement;
import org.jcnc.snow.compiler.lexer.token.TokenType;
import org.jcnc.snow.compiler.parser.ast.AssignmentNode;
-import org.jcnc.snow.compiler.parser.ast.base.ExpressionNode;
import org.jcnc.snow.compiler.parser.ast.ExpressionStatementNode;
+import org.jcnc.snow.compiler.parser.ast.base.ExpressionNode;
import org.jcnc.snow.compiler.parser.ast.base.StatementNode;
import org.jcnc.snow.compiler.parser.context.ParserContext;
import org.jcnc.snow.compiler.parser.context.TokenStream;
@@ -11,66 +11,57 @@ import org.jcnc.snow.compiler.parser.context.UnexpectedToken;
import org.jcnc.snow.compiler.parser.expression.PrattExpressionParser;
/**
- * {@code ExpressionStatementParser} 负责解析通用表达式语句,包括赋值语句和单一表达式语句。
+ * {@code ExpressionStatementParser} 用于解析通用表达式语句(赋值或普通表达式)。
*
- * 支持的语法结构如下:
+ * 支持以下两种语法结构:
*
{@code
* x = 1 + 2 // 赋值语句
- * doSomething() // 函数调用等普通表达式语句
+ * doSomething() // 一般表达式语句
* }
*
- * - 若以标识符开头,且后接等号 {@code =},则视为赋值语句,解析为 {@link AssignmentNode}。
+ * - 以标识符开头且后接 {@code =} 时,解析为 {@link AssignmentNode}。
* - 否则视为普通表达式,解析为 {@link ExpressionStatementNode}。
- * - 所有表达式语句必须以换行符 {@code NEWLINE} 结束。
+ * - 所有表达式语句必须以换行符({@code NEWLINE})结尾。
*
- * 不允许以关键字或空行作为表达式的起始,若遇到非法开头,将抛出解析异常。
+ * 若语句起始为关键字或空行,将直接抛出异常,防止非法语法进入表达式解析流程。
*/
public class ExpressionStatementParser implements StatementParser {
/**
- * 解析一个表达式语句,根据上下文决定其为赋值或一般表达式。
- *
- * 具体逻辑如下:
- *
- * - 若当前行为标识符后接等号,则作为赋值处理。
- * - 否则解析整个表达式作为单独语句。
- * - 所有语句都必须以换行符结束。
- * - 若表达式以关键字或空行开头,将立即抛出异常,避免非法解析。
- *
+ * 解析单行表达式语句,根据上下文判断其为赋值语句或普通表达式语句。
*
- * @param ctx 当前解析上下文,提供词法流与状态信息。
- * @return 返回 {@link AssignmentNode} 或 {@link ExpressionStatementNode} 表示的语法节点。
- * @throws UnexpectedToken 若表达式起始为关键字或语法非法。
+ * @param ctx 当前解析上下文,提供词法流与环境信息
+ * @return {@link AssignmentNode} 或 {@link ExpressionStatementNode} 语法节点
+ * @throws UnexpectedToken 若遇到非法起始(关键字、空行等)
*/
@Override
public StatementNode parse(ParserContext ctx) {
TokenStream ts = ctx.getTokens();
- // 快速检查:若遇空行或关键字开头,不可作为表达式语句
if (ts.peek().getType() == TokenType.NEWLINE || ts.peek().getType() == TokenType.KEYWORD) {
- throw new UnexpectedToken("无法解析以关键字开头的表达式: " + ts.peek().getLexeme());
+ throw new UnexpectedToken(
+ "无法解析以关键字开头的表达式: " + ts.peek().getLexeme(),
+ ts.peek().getLine(),
+ ts.peek().getCol()
+ );
}
- // 获取当前 token 的行号、列号和文件名
- int line = ctx.getTokens().peek().getLine();
- int column = ctx.getTokens().peek().getCol();
+ int line = ts.peek().getLine();
+ int column = ts.peek().getCol();
String file = ctx.getSourceName();
- // 处理赋值语句:格式为 identifier = expression
- if (ts.peek().getType() == TokenType.IDENTIFIER
- && ts.peek(1).getLexeme().equals("=")) {
-
- String varName = ts.next().getLexeme(); // 消耗标识符
- ts.expect("="); // 消耗等号
- ExpressionNode value = new PrattExpressionParser().parse(ctx); // 解析表达式
- ts.expectType(TokenType.NEWLINE); // 语句必须以换行符结束
- return new AssignmentNode(varName, value, line, column, file); // 返回赋值节点
+ // 赋值语句:IDENTIFIER = expr
+ if (ts.peek().getType() == TokenType.IDENTIFIER && "=".equals(ts.peek(1).getLexeme())) {
+ String varName = ts.next().getLexeme();
+ ts.expect("=");
+ ExpressionNode value = new PrattExpressionParser().parse(ctx);
+ ts.expectType(TokenType.NEWLINE);
+ return new AssignmentNode(varName, value, line, column, file);
}
- // 处理普通表达式语句,如函数调用、字面量、运算表达式等
+ // 普通表达式语句
ExpressionNode expr = new PrattExpressionParser().parse(ctx);
- ts.expectType(TokenType.NEWLINE); // 语句必须以换行符结束
- return new ExpressionStatementNode(expr, line, column, file); // 返回表达式语句节点
+ ts.expectType(TokenType.NEWLINE);
+ return new ExpressionStatementNode(expr, line, column, file);
}
-
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/utils/FlexibleSectionParser.java b/src/main/java/org/jcnc/snow/compiler/parser/utils/FlexibleSectionParser.java
index 90cbc2c..692e5a4 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/utils/FlexibleSectionParser.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/utils/FlexibleSectionParser.java
@@ -10,84 +10,78 @@ import java.util.function.BiConsumer;
import java.util.function.Predicate;
/**
- * {@code FlexibleSectionParser} 是一个通用的语法块解析工具。
+ * {@code FlexibleSectionParser} 是一个通用的区块(Section)解析工具。
*
- * 该工具支持解析由关键字标识的多段结构化区块内容,常用于解析函数、类、模块、循环等语法单元中的命名子结构。
- * 相比传统硬编码方式,提供更灵活、可组合的解析能力,允许解析器模块动态注册处理逻辑,而非将所有逻辑写死在主流程中。
+ * 支持通过注册表驱动的方式解析具有区块关键字标识的多段结构内容,
+ * 常用于函数、类、模块、循环等语法单元中的命名子结构。
+ * 通过外部注册解析逻辑,支持高度可扩展与复用。
+ *
*
- * 典型应用包括:
+ *
+ * 典型用途包括:
*
* - 函数体解析中的 {@code params}、{@code returns}、{@code body} 等部分
* - 模块定义中的 {@code imports}、{@code functions} 等部分
- * - 用户自定义 DSL 的可扩展语法结构
+ * - 可扩展 DSL 的结构化语法区块
*
+ *
*
- * 该工具具备以下能力:
+ *
主要特性:
*
* - 自动跳过注释与空行
- * - 根据区块名称调用外部提供的解析器
- * - 支持终止标志(如 {@code end})来退出解析流程
+ * - 区块入口通过关键字匹配和可选条件判断
+ * - 解析逻辑由外部以函数式接口方式注册
+ * - 支持遇到终止关键字(如 {@code end})时自动停止
*
*/
public class FlexibleSectionParser {
/**
- * 启动结构化区块的统一解析流程。
- *
- * 每次调用会:
- *
- * - 从 token 流中跳过空行与注释
- * - 依照当前 token 判断是否匹配某个区块
- * - 调用对应 {@link SectionDefinition} 执行区块解析逻辑
- * - 若遇到 {@code end} 关键字,则终止解析过程
- * - 若当前 token 不匹配任何已注册区块,抛出异常
- *
+ * 解析并分派处理多区块结构。
*
- * @param ctx 当前解析上下文,提供语法环境与作用域信息
- * @param tokens 当前 token 流
- * @param sectionDefinitions 各个区块的定义映射(key 为关键字,value 为判断 + 解析逻辑组合)
- * @throws UnexpectedToken 若出现无法识别的关键字或未满足的匹配条件
+ * @param ctx 解析上下文
+ * @param tokens 词法流
+ * @param sectionDefinitions 区块处理注册表,key 为区块关键字,value 为对应的处理定义
+ * @throws UnexpectedToken 遇到未注册或条件不符的关键字时抛出
*/
public static void parse(ParserContext ctx,
TokenStream tokens,
Map sectionDefinitions) {
- // 跳过开头的注释或空行
skipCommentsAndNewlines(tokens);
while (true) {
- // 跳过当前区块之间的空白与注释
skipCommentsAndNewlines(tokens);
String keyword = tokens.peek().getLexeme();
- // 结束关键字表示解析流程终止
if ("end".equals(keyword)) {
break;
}
- // 查找匹配的区块定义
SectionDefinition definition = sectionDefinitions.get(keyword);
if (definition != null && definition.condition().test(tokens)) {
- definition.parser().accept(ctx, tokens); // 执行解析逻辑
+ definition.parser().accept(ctx, tokens);
} else {
- throw new UnexpectedToken("未识别的关键字或条件不满足: " + keyword);
+ throw new UnexpectedToken(
+ "未识别的关键字或条件不满足: " + keyword,
+ tokens.peek().getLine(),
+ tokens.peek().getCol()
+ );
}
}
}
/**
- * 跳过连续出现的注释行或空行(NEWLINE)。
- *
- * 该方法用于在区块之间清理无效 token,避免影响结构判断。
+ * 跳过所有连续的注释(COMMENT)和空行(NEWLINE)token。
*
- * @param tokens 当前 token 流
+ * @param tokens 当前词法流
*/
private static void skipCommentsAndNewlines(TokenStream tokens) {
while (true) {
TokenType type = tokens.peek().getType();
if (type == TokenType.COMMENT || type == TokenType.NEWLINE) {
- tokens.next(); // 跳过注释或换行
+ tokens.next();
continue;
}
break;
@@ -95,17 +89,10 @@ public class FlexibleSectionParser {
}
/**
- * 表示一个结构区块的定义,包含匹配条件与解析器。
- *
- * 每个区块由两部分组成:
- *
- * - {@code condition}:用于判断当前 token 是否应进入该区块
- * - {@code parser}:该区块对应的实际解析逻辑
- *
- * 可实现懒加载、多语言支持或 DSL 的结构化扩展。
+ * 区块定义,包含进入区块的判断条件与具体解析逻辑。
*
- * @param condition 判断是否触发该区块的谓词函数
- * @param parser 区块解析逻辑(消费语法上下文与 token 流)
+ * @param condition 匹配区块的前置条件
+ * @param parser 区块内容的具体解析操作
*/
public record SectionDefinition(Predicate condition,
BiConsumer parser) {
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/utils/JSONParser.java b/src/main/java/org/jcnc/snow/compiler/parser/utils/JSONParser.java
index 6d77478..41eb1fa 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/utils/JSONParser.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/utils/JSONParser.java
@@ -6,77 +6,61 @@ import java.util.*;
import java.util.Map.Entry;
/**
- * JSON 工具类,提供线程安全、可重用的解析与序列化功能
+ * JSON 工具类,提供线程安全、可重用的 JSON 解析与序列化能力。
*
- * - 解析:将合法的 JSON 文本转换为 Java 原生对象(Map、List、String、Number、Boolean 或 null)
- * - 序列化:将 Java 原生对象转换为符合 JSON 标准的字符串
- *
- * 设计要点:
- * 1. 使用静态方法作为唯一入口,避免状态共享导致的线程安全问题
- * 2. 解析器内部使用 char[] 缓冲区,提高访问性能
- * 3. 维护行列号信息,抛出异常时能精确定位错误位置
- * 4. 序列化器基于 StringBuilder,预分配容量,减少中间字符串创建
+ * 主要功能:
+ *
+ * - 解析:将合法的 JSON 文本转换为 Java 原生对象(Map、List、String、Number、Boolean 或 null)
+ * - 序列化:将 Java 原生对象转换为符合 JSON 标准的字符串
+ *
+ *
+ *
+ * 设计要点:
+ *
+ * - 仅提供静态方法入口,无状态,线程安全
+ * - 解析器内部采用 char[] 缓冲区,支持高性能处理
+ * - 精确维护行列号信息,异常可定位错误文本位置
+ * - 序列化器使用 StringBuilder,默认预分配容量
+ *
*/
public class JSONParser {
- private JSONParser() {
- }
+ private JSONParser() {}
/**
- * 将 JSON 文本解析为对应的 Java 对象
+ * 解析 JSON 格式字符串为对应的 Java 对象。
*
* @param input JSON 格式字符串
- * @return 对应的 Java 原生对象:
- * - JSON 对象 -> Map
- * - JSON 数组 -> List