diff --git a/.gitee/ISSUE_TEMPLATE/bug.yml b/.gitee/ISSUE_TEMPLATE/bug.yml
index 6fc2f7a..f65f6a9 100644
--- a/.gitee/ISSUE_TEMPLATE/bug.yml
+++ b/.gitee/ISSUE_TEMPLATE/bug.yml
@@ -69,7 +69,7 @@ body:
attributes:
label: 软件版本/分支
options:
- - v0.3.0
+ - v0.4.0
- main
- dev
- 其他
diff --git a/.run/Bug1.run.xml b/.run/Bug1.run.xml
new file mode 100644
index 0000000..f9c6da7
--- /dev/null
+++ b/.run/Bug1.run.xml
@@ -0,0 +1,17 @@
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
\ No newline at end of file
diff --git a/.run/Demo1.run.xml b/.run/Demo1.run.xml
index 55005c8..653910c 100644
--- a/.run/Demo1.run.xml
+++ b/.run/Demo1.run.xml
@@ -1,5 +1,5 @@
-
+
diff --git a/.run/Demo11.run.xml b/.run/Demo11.run.xml
new file mode 100644
index 0000000..07d914d
--- /dev/null
+++ b/.run/Demo11.run.xml
@@ -0,0 +1,17 @@
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
\ No newline at end of file
diff --git a/.run/测试.run.xml b/.run/测试.run.xml
new file mode 100644
index 0000000..43d3751
--- /dev/null
+++ b/.run/测试.run.xml
@@ -0,0 +1,15 @@
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
\ No newline at end of file
diff --git a/LICENSE b/LICENSE
index 094dd59..8940ae8 100644
--- a/LICENSE
+++ b/LICENSE
@@ -187,6 +187,7 @@
identification within third-party archives.
Copyright © 2025 Ke Xu (Luke), on behalf of the SnowLang Project
+ Repository: https://gitee.com/jcnc-org/snow
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
diff --git a/NOTICE b/NOTICE
new file mode 100644
index 0000000..b289ed9
--- /dev/null
+++ b/NOTICE
@@ -0,0 +1,15 @@
+==========================================
+SnowLang Project – NOTICE
+==========================================
+
+Copyright © 2025 Ke Xu (Luke), on behalf of the SnowLang Project
+Repository: https://gitee.com/jcnc-org/snow
+
+Licensed under the Apache License, Version 2.0 (the "License")
+You may obtain a copy of the License at:
+ http://www.apache.org/licenses/LICENSE-2.0
+
+===============================================================================
+This product includes software developed by the SnowLang Project and
+its contributors.
+===============================================================================
diff --git a/README.md b/README.md
index 9961193..af43071 100644
--- a/README.md
+++ b/README.md
@@ -1,5 +1,5 @@
-
+
Snow编程语言
@@ -11,8 +11,8 @@
-
-
+
+
@@ -30,39 +30,55 @@
## 项目简介
-Snow 语言是一个正在发展的编程语言,采用类模块(module)语法风格,支持函数定义和类型注解。它设计目标是让大型语言模型(LLM)更容易生成和理解编程代码。该项目实现了 Snow 语言的完整编译流程,包括词法分析,语法分析,语义分析,中间表示(IR)生成以及最终的虚拟机(VM)指令生成和执行器。通过 Snow 编译器,可以将 `.snow` 源文件编译为中间表示和自定义的虚拟机指令,并在内置的虚拟机上直接运行。
+Snow 是一门受 LLM 时代启发的、面向 AI 友好的编程语言。它设计目标是让 LLM 更容易生成和理解编程代码。
+
+该项目实现了 Snow
+语言的完整编译流程,包括词法分析,语法分析,语义分析,中间表示(IR)生成以及最终的虚拟机(VM)指令生成和执行器,提供从源码到字节码再到自研编程语言虚拟机 (
+SnowVM) 的完整编译-执行链路。
+
+通过 Snow 编译器,可以将 `.snow` 源文件编译为 `.water`虚拟机指令,并在 SnowVM 上直接运行。
+
+从源码编译、构建管理、依赖管理、项目标准化、可视化调试面板到原生镜像发布,全部由 Snow 官方工具完成,降低学习与集成成本。
## 背景理念
-Snow 语言受到 LLM 驱动代码生成趋势的启发,强调简单而清晰的语法和严格的类型系统,以帮助人工智能模型更好地理解程序结构。语言使用显式的 `module` 声明来组织代码,用 `function`,`parameter`,`return_type`,`body` 等关键字分隔不同代码块,语法结构固定且易读。此外,Snow 实现了语义分析来检查变量作用域和类型一致性,在编译阶段捕获错误并确保生成的中间代码正确无误。这种自上而下的编译流程,使得代码设计和生成更加模块化,可解释,也有利于调试和优化。
+Snow 语言受到 LLM 驱动代码生成趋势的启发,强调简单而清晰的语法和严格的类型系统,以帮助 LLM 更好地理解程序。
-相关背景: [心路历程](doc/Snow-Lang-Journey/Snow-Lang-Journey.md)
+语言使用显式的 `module` 声明来组织代码,用 `function`,`parameter`,`return_type`,`body` 等关键字分隔不同代码块,语法结构固定且易读。此外,Snow
+实现了语义分析来检查变量作用域和类型一致性,在编译阶段捕获错误并确保生成的中间代码正确无误。这种自上而下的编译流程,使得代码设计和生成更加模块化,可解释,也有利于调试和优化。
-## 下载Snow发行版
-
-访问: https://gitee.com/jcnc-org/snow/releases
-
-## 相关文档
-
-[Git 管理规范](doc/Snow-Lang-Git-Management/Snow-Lang-Git-Management.md)
-
-[Snow-Lang GraalVM AOT 打包指南](doc/Snow-Lang-GraalVM-AOT-Native-Image-Package/Snow-Lang-GraalVM-AOT-Native-Image-Package.md)
+相关背景: [心路历程](docs/Snow-Lang-Journey/Snow-Lang-Journey.md)
## 功能特性
-* **模块化语法**:支持顶层的 `module:` 声明和 `import:` 导入语句,用于组织代码和依赖管理。
-* **函数与类型**:支持函数定义,函数参数和返回值。在函数体中可以声明变量并进行类型检查。
-* **丰富语句**:支持变量声明(`declare name:Type`,可选初始化),条件语句(`if ... end if`),循环语句(`loop ... end loop`),返回语句等。
-* **表达式解析**:实现了 Pratt 算法的表达式解析器,支持算术,比较和逻辑运算,以及函数调用,成员访问等操作。
-* **完整编译器前端**:包含词法分析器(Lexer),语法分析器(Parser)和语义分析器,对源代码生成抽象语法树(AST)并检查类型/作用域。
-* **中间表示(IR)**:将高层 AST 转换为自定义的三地址式 IR(Intermediate Representation),结构清晰便于后端优化。
-* **后端指令生成**:IR 模块通过线性扫描寄存器分配器映射寄存器,使用指令生成器将 IR 翻译为定制的 VM 指令集。
-* **虚拟机执行**:自带虚拟机引擎(VirtualMachineEngine),能够加载并执行生成的指令序列,支持调试模式输出虚拟机状态。
-* **调试与输出**:编译过程会输出源码,AST(JSON 格式),IR 和最终生成的 VM 代码,方便用户查看编译中间结果和调试。
+| 类别 | 关键特性 |
+|----------|---------------------------------------------------------------------------------------------------|
+| 语言层 | `module` / `import` / `function` / `loop` / `if–else` / Pratt 表达式解析
静态类型检查 & 作用域分析 |
+| 编译器前端 | **Lexer / Parser / Semantic Analyzer** 全栈自研,生成 JSON-AST |
+| IR & 后端 | 三地址式 IR ➜ 线性扫描寄存器分配 ➜ SnowVM 指令 |
+| 虚拟机 | 栈 + 寄存器混合架构、GUI 局部变量监视 |
+| snow pkg | - `.cloud` DSL 描述项目、依赖与构建
- 预设 `clean / compile / run / package / publish` 任务
- 离线缓存与远程仓库解析 |
+| CLI | `snow init`, `snow compile`, `snow run`, `snow clean`, `snow build`, `snow generate` |
+
+## Snow-Lang 官网
+
+[https://snow-lang.com](https://snow-lang.com)
+
+## 下载 Snow 发行版
+
+[https://gitee.com/jcnc-org/snow/releases](https://gitee.com/jcnc-org/snow/releases)
+
+## 相关文档
+
+[Git 管理规范](docs/Snow-Lang-Git-Management/Snow-Lang-Git-Management.md)
+
+[SnowVM OpCode 指令表](docs/SnowVM-OpCode/SnowVM-OpCode.md)
+
+[Snow-Lang GraalVM AOT 打包指南](docs/Snow-Lang-GraalVM-AOT-Native-Image-Package/Snow-Lang-GraalVM-AOT-Native-Image-Package.md)
## 开发计划
-[Snow 语言现状和下一阶段开发路线图-2025-06-11](doc/Snow-Lang-Roadmap/Snow-Lang-Roadmap.md)
+~~[Snow 语言现状和下一阶段开发路线图-2025-06-11-已废弃](docs/Snow-Lang-Roadmap/Snow-Lang-Roadmap-2025-06-11.md)~~
## 开发环境安装
@@ -78,199 +94,277 @@ Snow 语言受到 LLM 驱动代码生成趋势的启发,强调简单而清晰的
3. **运行项目**
- 使用IDEA配置好的运行配置SnowCompiler
+ 使用IDEA配置好的运行配置 `Demo1`
- 
+ 
4. **运行成功**
-
-``` snow
-## 源代码 (main.snow)
-module: Main
- import:Math
- function: main
- parameter:
- return_type: int
- body:
- Math.factorial(6L,1L)
- return 0
- end body
- end function
-end module
-
-## 源代码 (test.snow)
-module: Math
- function: factorial
- parameter:
- declare n1: long
- declare n2: long
- return_type: long
- body:
- return n1+n2
- end body
- end function
-end module
-
-## 编译器输出
-### AST
-[
- {
- "type": "Module",
- "name": "Main",
- "imports": [
- {
- "module": "Math",
- "type": "Import"
- }
- ],
- "functions": [
- {
- "type": "Function",
- "name": "main",
- "parameters": [
-
+
+ `````snow
+ ## 编译器输出
+ ### Snow 源代码
+ #### Main.snow
+ module: Main
+ import:Math
+ function: main
+ return_type: int
+ body:
+ Math.add(6,1)
+ return 0
+ end body
+ end function
+ end module
+ #### Math.snow
+ module: Math
+ function: add
+ parameter:
+ declare n1: int
+ declare n2: int
+ return_type: int
+ body:
+ return n1 + n2
+ end body
+ end function
+ end module
+ ### AST
+ [
+ {
+ "type": "Module",
+ "name": "Main",
+ "imports": [
+ {
+ "module": "Math",
+ "type": "Import"
+ }
],
- "returnType": "int",
- "body": [
- {
- "type": "ExpressionStatement",
- "expression": {
- "type": "CallExpression",
- "callee": {
- "type": "MemberExpression",
- "object": {
- "type": "Identifier",
- "name": "Math"
+ "functions": [
+ {
+ "type": "Function",
+ "name": "main",
+ "parameters": [
+
+ ],
+ "returnType": "int",
+ "body": [
+ {
+ "type": "ExpressionStatement",
+ "expression": {
+ "type": "CallExpression",
+ "callee": {
+ "type": "MemberExpression",
+ "object": {
+ "type": "Identifier",
+ "name": "Math"
+ },
+ "member": "add"
},
- "member": "factorial"
- },
- "arguments": [
- {
- "type": "NumberLiteral",
- "value": "6L"
- },
- {
- "type": "NumberLiteral",
- "value": "1L"
+ "arguments": [
+ {
+ "type": "NumberLiteral",
+ "value": "6"
+ },
+ {
+ "type": "NumberLiteral",
+ "value": "1"
+ }
+ ]
+ }
+ },
+ {
+ "type": "Return",
+ "value": {
+ "type": "NumberLiteral",
+ "value": "0"
}
- ]
}
- },
- {
- "type": "Return",
- "value": {
- "type": "NumberLiteral",
- "value": "0"
- }
- }
+ ]
+ }
]
- }
- ]
- },
- {
- "type": "Module",
- "name": "Math",
- "imports": [
-
- ],
- "functions": [
- {
- "type": "Function",
- "name": "factorial",
- "parameters": [
- {
- "name": "n1",
- "type": "long"
- },
- {
- "name": "n2",
- "type": "long"
- }
+ },
+ {
+ "type": "Module",
+ "name": "Math",
+ "imports": [
+
],
- "returnType": "long",
- "body": [
- {
- "type": "Return",
- "value": {
- "type": "BinaryExpression",
- "left": {
- "type": "Identifier",
- "name": "n1"
- },
- "operator": "+",
- "right": {
- "type": "Identifier",
- "name": "n2"
- }
+ "functions": [
+ {
+ "type": "Function",
+ "name": "add",
+ "parameters": [
+ {
+ "name": "n1",
+ "type": "int"
+ },
+ {
+ "name": "n2",
+ "type": "int"
}
- }
+ ],
+ "returnType": "int",
+ "body": [
+ {
+ "type": "Return",
+ "value": {
+ "type": "BinaryExpression",
+ "left": {
+ "type": "Identifier",
+ "name": "n1"
+ },
+ "operator": "+",
+ "right": {
+ "type": "Identifier",
+ "name": "n2"
+ }
+ }
+ }
+ ]
+ }
]
- }
+ }
]
- }
-]
-### IR
-func main() {
- %0 = CONST 6
- %1 = CONST 1
- %2 = CALL Math.factorial, %0, %1
- %3 = CONST 0
- RET %3
-}
-func factorial(%0, %1) {
- %2 = ADD_L64 %0, %1
- RET %2
-}
-
-### VM code
-112 6
-152 0
-112 1
-152 1
-162 0
-162 1
-201 12 2
-152 2
-111 0
-151 3
-161 3
-255
-162 0
-162 1
-11
-152 2
-162 2
-202
-Calling function at address: 12
-Return 7
-Process has ended
+ ### IR
+ func main() {
+ %0 = CONST 6
+ %1 = CONST 1
+ %2 = CALL Math.add, %0, %1
+ %3 = CONST 0
+ RET %3
+ }
+ func add(%0, %1) {
+ %2 = ADD_I32 %0, %1
+ RET %2
+ }
-### VM Local Variable Table:
-0: 6
-1: 1
-2: 7
-3: 0
+ ### VM code
+ 0000: I_PUSH 6
+ 0001: I_STORE 0
+ 0002: I_PUSH 1
+ 0003: I_STORE 1
+ 0004: I_LOAD 0
+ 0005: I_LOAD 1
+ 0006: CALL 12 2
+ 0007: I_STORE 2
+ 0008: I_PUSH 0
+ 0009: I_STORE 3
+ 0010: I_LOAD 3
+ 0011: HALT
+ 0012: I_LOAD 0
+ 0013: I_LOAD 1
+ 0014: I_ADD
+ 0015: I_STORE 2
+ 0016: I_LOAD 2
+ 0017: RET
+ Written to D:\Devs\IdeaProjects\Snow\target\Demo1.water
-```
+ === Launching VM ===
+ Calling function at address: 12
+ Return 7
+ Process has ended
+
+ Operand Stack state:[0]
+
+ --- Call Stack State ---
-## 编译Snow源代码
+ ### VM Local Variable Table:
+ 0: 6
+ 1: 1
+ 2: 7
+ 3: 0
+ `````
+
+## 编译 Snow 源代码
-1. **运行编译器**:
- 运行 Snow 来编译 `.snow` 源文件 (Windows环境) 并且在Snow虚拟机运行,默认以 DEBUG 模式显示执行过程和状态。例如:
+### 1. 独立编译 (Standalone Compilation)
+
+独立编译不依赖 `.cloud` 文件,而是直接使用 `Snow` 编译器进行 `.snow` 文件的编译和执行。
+
+#### 独立编译步骤:
+
+1. **运行编译器:**
+ 你可以通过以下命令来编译单个或多个 `.snow` 文件,或者递归编译一个目录中的所有 `.snow` 源文件为`.water`虚拟机指令。
+
+ * **单个文件编译:**
+
+ ```bash
+ Snow complete [SnowCode].snow
+ ```
+
+ * **多个文件编译:**
+
+ ```bash
+ Snow complete [SnowCode1].snow [SnowCode2].snow [SnowCode3].snow -o [Name]
+ ```
+
+ * **目录递归编译:**
+
+ ```bash
+ Snow -d path/to/source_dir
+ ```
+
+2. **查看编译输出:**
+ 编译过程会输出源代码、抽象语法树(AST)、中间表示(IR)以及虚拟机指令等内容。你可以看到如下几个分段输出:
+
+ * **AST**(抽象语法树)部分以 JSON 格式输出。
+ * **IR**(中间表示)部分会列出逐行的中间代码。
+ * **VM code**(虚拟机指令)会展示虚拟机的字节码指令。
+
+3. **默认执行模式:**
+ 编译器会在 **DEBUG 模式** 下运行,显示详细的执行过程和状态,并且在虚拟机中执行编译后的代码,最后会打印出所有局部变量的值。
+
+---
+
+### 2. **集成编译 (Integrated Compilation)**
+
+集成编译需要使用 `.cloud` 文件来指定项目的配置和结构,适用于项目标准化、依赖管理、构建管理和项目分发等场景。
+
+#### 集成编译命令:
+
+1. **基本用法:**
```bash
- # 单个文件编译
- Snow.exe [SnowCode].snow
- # 多个文件编译
- Snow.exe [SnowCode1].snow [SnowCode2].snow [SnowCode3].snow
- # 目录递归编译(-d 参数)
- Snow.exe -d path/to/source_dir
+ snow [OPTIONS]
+ ```
+2. **命令选项:**
- 编译器会输出源代码,AST,IR 和 VM 指令等内容,并自动执行虚拟机引擎,最后打印所有局部变量的值
-2. **查看 AST/IR/VM 输出**:在编译器输出中,可看到 `### AST`,`### IR` 和 `### VM code` 等分段内容。AST 部分为 JSON 格式,IR 和 VM 部分为逐行指令文本。
+ * `-h, --help`:显示帮助信息并退出。
+ * `-v, --version`:打印 Snow 编程语言的版本并退出。
+
+3. **可用命令:**
+
+ * `compile`:将 `.snow` 源文件编译成虚拟机字节码文件(`.water`)。此命令会使用 `.cloud` 文件来指导编译过程。
+ * `clean`:清理构建输出和本地缓存,移除中间产物,释放磁盘空间。
+ * `version`:打印 Snow 的版本。
+ * `run`:运行已编译的虚拟机字节码文件(`.water`)。
+ * `init`:初始化一个新项目,生成 `project.cloud` 文件。
+ * `generate`:根据 `project.cloud` 生成项目目录结构。
+ * `build`:构建当前项目,按顺序解析依赖、编译和打包。
+
+4. **例如,执行集成编译命令:**
+
+ ```bash
+ snow compile [SnowCode].snow
+ ```
+
+ * 此命令会使用 `.cloud` 文件中的配置信息来指导编译过程,并生成 `.water`。
+
+5. **使用帮助:**
+ 如果你需要了解某个命令的详细选项,可以使用:
+
+ ```bash
+ snow --help
+ ```
+
+ 例如,查看 `compile` 命令的具体选项:
+
+ ```bash
+ snow compile --help
+ ```
+
+---
## 示例代码片段
@@ -279,7 +373,6 @@ Process has ended
```snow
module: Math
function: main
- parameter:
return_type: int
body:
Math.factorial(6)
@@ -308,37 +401,58 @@ module: Math
end body
end function
end module
-
```
上述代码定义了一个名为 `Math` 的模块,其中包含两个函数:
* `main`:不接收任何参数,返回类型为 `int`。在函数体内调用了 `Math.factorial(6)`,然后返回 `0`。
-* `factorial`:接收一个 `int` 类型的参数 `n`,返回类型为 `int`。函数体内先声明并初始化局部变量 `num1` 为 `1`,然后通过一个 `loop` 循环(从 `counter = 1` 到 `counter <= n`)依次将 `num1` 乘以 `counter`,循环结束后返回 `num1`,即 `n` 的阶乘值。
+* `factorial`:接收一个 `int` 类型的参数 `n`,返回类型为 `int`。函数体内先声明并初始化局部变量 `num1` 为 `1`,然后通过一个
+ `loop` 循环(从 `counter = 1` 到 `counter <= n`)依次将 `num1` 乘以 `counter`,循环结束后返回 `num1`,即 `n` 的阶乘值。
+> 更多示例代码见 [playground 目录](https://gitee.com/jcnc-org/snow/tree/main/playground)
+
## 项目结构说明
* `compiler/`:Snow 编译器源代码目录
- * `cli/`:命令行接口,包括 `SnowCompiler` 主程序
- * `lexer/`:词法分析模块,负责将源码切分为 Token
- * `parser/`:语法分析模块,将 Token 流解析为 AST;包括模块解析,函数解析,语句解析等子模块
- * `semantic/`:语义分析模块,负责符号表管理,类型检查等
- * `ir/`:中间表示(IR)模块,生成和管理三地址码形式的中间代码
- * `backend/`:编译器后端模块,将 IR 翻译为虚拟机指令,包含寄存器分配和指令生成器
+ * `lexer/`:词法分析模块,负责将源码切分为 Token
+ * `parser/`:语法分析模块,将 Token 流解析为 AST(含模块/函数/语句解析)
+ * `semantic/`:语义分析模块,负责符号表管理、类型检查等
+ * `ir/`:中间表示(IR)模块,生成并管理三地址码形式的中间代码
+ * `backend/`:编译器后端模块,将 IR 翻译为虚拟机指令,包含寄存器分配和指令生成器
+
* `vm/`:虚拟机相关源代码目录
- * `commands/`:定义 VM 指令集的具体实现
- * `engine/`:核心执行引擎,提供指令执行和寄存器栈管理
- * `execution/`:执行流程控制(按指令顺序执行,分支跳转等)
- * `io/`:输入输出辅助类(加载指令,文件解析等)
- * 其他如 `factories/`,`utils/` 等目录包含指令创建和调试工具类
+ * `commands/`:定义 SnowVM 指令集的具体实现
+ * `engine/`:核心执行引擎,提供指令执行和寄存器/栈管理
+ * `execution/`:执行流程控制(按指令顺序执行、分支跳转等)
+ * `io/`:输入输出辅助类(加载指令、文件解析等)
+ * `gui/`:Swing 可视化调试面板,实时展示局部变量表
+ * `factories/`、`utils/`:指令创建、日志调试等公共工具
+
+* `pkg/`:内置构建与包管理器 **snow pkg**
+
+ * `dsl/`:`.cloud` 描述文件解析器
+ * `tasks/`:预设任务实现(`clean · compile · run · package · publish` 等)
+ * `resolver/`:本地/远程仓库解析与缓存
+ * `lifecycle/`:任务生命周期钩子(pre/post 脚本等)
+ * `model/`:项目、依赖、版本等模型
+ * `utils/`:文件、日志、校验和等通用工具
+ * `doc/`:开发者文档与示例 `.cloud` 配置
+
+* `cli/`:独立的命令行前端
+
+ * `commands/`:`compile` / `run` / `pkg` 等子命令实现
+ * `api/`:公共选项解析、终端交互抽象
+ * `utils/`:终端颜色、进度条、异常格式化等
+ * `SnowCLI.java`:CLI 主入口
## 版权声明
版权所有 © 2025 许轲(Luke),代表 SnowLang 项目。
+仓库地址:
本项目依据 [Apache 2.0 许可证](LICENSE) 进行许可和发布。
“SnowLang 项目”为由许轲(Luke)发起的独立开源项目。
diff --git a/doc/README/IMG/IMG_Run-Profile_1.png b/doc/README/IMG/IMG_Run-Profile_1.png
deleted file mode 100644
index b982362..0000000
Binary files a/doc/README/IMG/IMG_Run-Profile_1.png and /dev/null differ
diff --git a/docs/README/IMG/IMG_Run-Profile_1.png b/docs/README/IMG/IMG_Run-Profile_1.png
new file mode 100644
index 0000000..7fb6e7a
Binary files /dev/null and b/docs/README/IMG/IMG_Run-Profile_1.png differ
diff --git a/doc/README/IMG/IMG_Snow_icon_128.png b/docs/README/IMG/icon/IMG_Snow_icon_128.png
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_128.png
rename to docs/README/IMG/icon/IMG_Snow_icon_128.png
diff --git a/doc/README/IMG/IMG_Snow_icon_128.svg b/docs/README/IMG/icon/IMG_Snow_icon_128.svg
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_128.svg
rename to docs/README/IMG/icon/IMG_Snow_icon_128.svg
diff --git a/doc/README/IMG/IMG_Snow_icon_16.png b/docs/README/IMG/icon/IMG_Snow_icon_16.png
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_16.png
rename to docs/README/IMG/icon/IMG_Snow_icon_16.png
diff --git a/doc/README/IMG/IMG_Snow_icon_16.svg b/docs/README/IMG/icon/IMG_Snow_icon_16.svg
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_16.svg
rename to docs/README/IMG/icon/IMG_Snow_icon_16.svg
diff --git a/doc/README/IMG/IMG_Snow_icon_256.png b/docs/README/IMG/icon/IMG_Snow_icon_256.png
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_256.png
rename to docs/README/IMG/icon/IMG_Snow_icon_256.png
diff --git a/doc/README/IMG/IMG_Snow_icon_256.svg b/docs/README/IMG/icon/IMG_Snow_icon_256.svg
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_256.svg
rename to docs/README/IMG/icon/IMG_Snow_icon_256.svg
diff --git a/doc/README/IMG/IMG_Snow_icon_32.png b/docs/README/IMG/icon/IMG_Snow_icon_32.png
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_32.png
rename to docs/README/IMG/icon/IMG_Snow_icon_32.png
diff --git a/doc/README/IMG/IMG_Snow_icon_32.svg b/docs/README/IMG/icon/IMG_Snow_icon_32.svg
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_32.svg
rename to docs/README/IMG/icon/IMG_Snow_icon_32.svg
diff --git a/doc/README/IMG/IMG_Snow_icon_48.png b/docs/README/IMG/icon/IMG_Snow_icon_48.png
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_48.png
rename to docs/README/IMG/icon/IMG_Snow_icon_48.png
diff --git a/doc/README/IMG/IMG_Snow_icon_48.svg b/docs/README/IMG/icon/IMG_Snow_icon_48.svg
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_48.svg
rename to docs/README/IMG/icon/IMG_Snow_icon_48.svg
diff --git a/doc/README/IMG/IMG_Snow_icon_64.png b/docs/README/IMG/icon/IMG_Snow_icon_64.png
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_64.png
rename to docs/README/IMG/icon/IMG_Snow_icon_64.png
diff --git a/doc/README/IMG/IMG_Snow_icon_64.svg b/docs/README/IMG/icon/IMG_Snow_icon_64.svg
similarity index 100%
rename from doc/README/IMG/IMG_Snow_icon_64.svg
rename to docs/README/IMG/icon/IMG_Snow_icon_64.svg
diff --git a/doc/Snow-Lang-Git-Management/Snow-Lang-Git-Management.md b/docs/Snow-Lang-Git-Management/Snow-Lang-Git-Management.md
similarity index 100%
rename from doc/Snow-Lang-Git-Management/Snow-Lang-Git-Management.md
rename to docs/Snow-Lang-Git-Management/Snow-Lang-Git-Management.md
diff --git a/doc/Snow-Lang-GraalVM-AOT-Native-Image-Package/Snow-Lang-GraalVM-AOT-Native-Image-Package.md b/docs/Snow-Lang-GraalVM-AOT-Native-Image-Package/Snow-Lang-GraalVM-AOT-Native-Image-Package.md
similarity index 100%
rename from doc/Snow-Lang-GraalVM-AOT-Native-Image-Package/Snow-Lang-GraalVM-AOT-Native-Image-Package.md
rename to docs/Snow-Lang-GraalVM-AOT-Native-Image-Package/Snow-Lang-GraalVM-AOT-Native-Image-Package.md
diff --git a/doc/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_Maven_Package_1.png b/docs/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_Maven_Package_1.png
similarity index 100%
rename from doc/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_Maven_Package_1.png
rename to docs/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_Maven_Package_1.png
diff --git a/doc/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_VS_1.png b/docs/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_VS_1.png
similarity index 100%
rename from doc/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_VS_1.png
rename to docs/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_VS_1.png
diff --git a/doc/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_VS_2.png b/docs/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_VS_2.png
similarity index 100%
rename from doc/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_VS_2.png
rename to docs/Snow-Lang-GraalVM-AOT-Native-Image-Package/img/IMG_VS_2.png
diff --git a/doc/Snow-Lang-Journey/Snow-Lang-Journey.md b/docs/Snow-Lang-Journey/Snow-Lang-Journey.md
similarity index 100%
rename from doc/Snow-Lang-Journey/Snow-Lang-Journey.md
rename to docs/Snow-Lang-Journey/Snow-Lang-Journey.md
diff --git a/doc/Snow-Lang-Journey/img/IMG_JNotepad_1.png b/docs/Snow-Lang-Journey/img/IMG_JNotepad_1.png
similarity index 100%
rename from doc/Snow-Lang-Journey/img/IMG_JNotepad_1.png
rename to docs/Snow-Lang-Journey/img/IMG_JNotepad_1.png
diff --git a/doc/Snow-Lang-Journey/img/IMG_JNotepad_2.png b/docs/Snow-Lang-Journey/img/IMG_JNotepad_2.png
similarity index 100%
rename from doc/Snow-Lang-Journey/img/IMG_JNotepad_2.png
rename to docs/Snow-Lang-Journey/img/IMG_JNotepad_2.png
diff --git a/doc/Snow-Lang-Roadmap/Snow-Lang-Roadmap.md b/docs/Snow-Lang-Roadmap/Snow-Lang-Roadmap-2025-06-11.md
similarity index 100%
rename from doc/Snow-Lang-Roadmap/Snow-Lang-Roadmap.md
rename to docs/Snow-Lang-Roadmap/Snow-Lang-Roadmap-2025-06-11.md
diff --git a/docs/SnowVM-OpCode/SnowVM-OpCode.md b/docs/SnowVM-OpCode/SnowVM-OpCode.md
new file mode 100644
index 0000000..4bd5d46
--- /dev/null
+++ b/docs/SnowVM-OpCode/SnowVM-OpCode.md
@@ -0,0 +1,226 @@
+# SnowVM-OpCode
+
+## 1. Byte8 区域(0x0000-0x001F)
+
+| 指令名 | 十六进制 | 说明 |
+|----------|--------|----------------|
+| B\_ADD | 0x0000 | byte8 加法 |
+| B\_SUB | 0x0001 | byte8 减法 |
+| B\_MUL | 0x0002 | byte8 乘法 |
+| B\_DIV | 0x0003 | byte8 除法 |
+| B\_MOD | 0x0004 | byte8 取余 |
+| B\_NEG | 0x0005 | byte8 取负 |
+| B\_INC | 0x0006 | byte8 自增 |
+| B\_AND | 0x0007 | byte8 按位与 |
+| B\_OR | 0x0008 | byte8 按位或 |
+| B\_XOR | 0x0009 | byte8 按位异或 |
+| B\_PUSH | 0x000A | byte8 入栈 |
+| B\_LOAD | 0x000B | byte8 本地变量加载 |
+| B\_STORE | 0x000C | byte8 本地变量存储 |
+| B\_CE | 0x000D | byte8 等于条件判断 |
+| B\_CNE | 0x000E | byte8 不等于条件判断 |
+| B\_CG | 0x000F | byte8 大于条件判断 |
+| B\_CGE | 0x0010 | byte8 大于等于条件判断 |
+| B\_CL | 0x0011 | byte8 小于条件判断 |
+| B\_CLE | 0x0012 | byte8 小于等于条件判断 |
+
+---
+
+## 2. Short16 区域(0x0020-0x003F)
+
+| 指令名 | 十六进制 | 说明 |
+|----------|--------|------------------|
+| S\_ADD | 0x0020 | short16 加法 |
+| S\_SUB | 0x0021 | short16 减法 |
+| S\_MUL | 0x0022 | short16 乘法 |
+| S\_DIV | 0x0023 | short16 除法 |
+| S\_MOD | 0x0024 | short16 取余 |
+| S\_NEG | 0x0025 | short16 取负 |
+| S\_INC | 0x0026 | short16 自增 |
+| S\_AND | 0x0027 | short16 按位与 |
+| S\_OR | 0x0028 | short16 按位或 |
+| S\_XOR | 0x0029 | short16 按位异或 |
+| S\_PUSH | 0x002A | short16 入栈 |
+| S\_LOAD | 0x002B | short16 本地变量加载 |
+| S\_STORE | 0x002C | short16 本地变量存储 |
+| S\_CE | 0x002D | short16 等于条件判断 |
+| S\_CNE | 0x002E | short16 不等于条件判断 |
+| S\_CG | 0x002F | short16 大于条件判断 |
+| S\_CGE | 0x0030 | short16 大于等于条件判断 |
+| S\_CL | 0x0031 | short16 小于条件判断 |
+| S\_CLE | 0x0032 | short16 小于等于条件判断 |
+
+---
+
+## 3. Int32 区域(0x0040-0x005F)
+
+| 指令名 | 十六进制 | 说明 |
+|----------|--------|----------------|
+| I\_ADD | 0x0040 | int32 加法 |
+| I\_SUB | 0x0041 | int32 减法 |
+| I\_MUL | 0x0042 | int32 乘法 |
+| I\_DIV | 0x0043 | int32 除法 |
+| I\_MOD | 0x0044 | int32 取余 |
+| I\_NEG | 0x0045 | int32 取负 |
+| I\_INC | 0x0046 | int32 自增 |
+| I\_AND | 0x0047 | int32 按位与 |
+| I\_OR | 0x0048 | int32 按位或 |
+| I\_XOR | 0x0049 | int32 按位异或 |
+| I\_PUSH | 0x004A | int32 入栈 |
+| I\_LOAD | 0x004B | int32 本地变量加载 |
+| I\_STORE | 0x004C | int32 本地变量存储 |
+| I\_CE | 0x004D | int32 等于条件判断 |
+| I\_CNE | 0x004E | int32 不等于条件判断 |
+| I\_CG | 0x004F | int32 大于条件判断 |
+| I\_CGE | 0x0050 | int32 大于等于条件判断 |
+| I\_CL | 0x0051 | int32 小于条件判断 |
+| I\_CLE | 0x0052 | int32 小于等于条件判断 |
+
+---
+
+## 4. Long64 区域(0x0060-0x007F)
+
+| 指令名 | 十六进制 | 说明 |
+|----------|--------|-----------------|
+| L\_ADD | 0x0060 | long64 加法 |
+| L\_SUB | 0x0061 | long64 减法 |
+| L\_MUL | 0x0062 | long64 乘法 |
+| L\_DIV | 0x0063 | long64 除法 |
+| L\_MOD | 0x0064 | long64 取余 |
+| L\_NEG | 0x0065 | long64 取负 |
+| L\_INC | 0x0066 | long64 自增 |
+| L\_AND | 0x0067 | long64 按位与 |
+| L\_OR | 0x0068 | long64 按位或 |
+| L\_XOR | 0x0069 | long64 按位异或 |
+| L\_PUSH | 0x006A | long64 入栈 |
+| L\_LOAD | 0x006B | long64 本地变量加载 |
+| L\_STORE | 0x006C | long64 本地变量存储 |
+| L\_CE | 0x006D | long64 等于条件判断 |
+| L\_CNE | 0x006E | long64 不等于条件判断 |
+| L\_CG | 0x006F | long64 大于条件判断 |
+| L\_CGE | 0x0070 | long64 大于等于条件判断 |
+| L\_CL | 0x0071 | long64 小于条件判断 |
+| L\_CLE | 0x0072 | long64 小于等于条件判断 |
+
+---
+
+## 5. Float32 区域(0x0080-0x009F)
+
+| 指令名 | 十六进制 | 说明 |
+|----------|--------|------------------|
+| F\_ADD | 0x0080 | float32 加法 |
+| F\_SUB | 0x0081 | float32 减法 |
+| F\_MUL | 0x0082 | float32 乘法 |
+| F\_DIV | 0x0083 | float32 除法 |
+| F\_MOD | 0x0084 | float32 取余 |
+| F\_NEG | 0x0085 | float32 取负 |
+| F\_INC | 0x0086 | float32 自增 |
+| F\_PUSH | 0x0087 | float32 入栈 |
+| F\_LOAD | 0x0088 | float32 本地变量加载 |
+| F\_STORE | 0x0089 | float32 本地变量存储 |
+| F\_CE | 0x008A | float32 等于条件判断 |
+| F\_CNE | 0x008B | float32 不等于条件判断 |
+| F\_CG | 0x008C | float32 大于条件判断 |
+| F\_CGE | 0x008D | float32 大于等于条件判断 |
+| F\_CL | 0x008E | float32 小于条件判断 |
+| F\_CLE | 0x008F | float32 小于等于条件判断 |
+
+---
+
+## 6. Double64 区域(0x00A0-0x00BF)
+
+| 指令名 | 十六进制 | 说明 |
+|----------|--------|-------------------|
+| D\_ADD | 0x00A0 | double64 加法 |
+| D\_SUB | 0x00A1 | double64 减法 |
+| D\_MUL | 0x00A2 | double64 乘法 |
+| D\_DIV | 0x00A3 | double64 除法 |
+| D\_MOD | 0x00A4 | double64 取余 |
+| D\_NEG | 0x00A5 | double64 取负 |
+| D\_INC | 0x00A6 | double64 自增 |
+| D\_PUSH | 0x00A7 | double64 入栈 |
+| D\_LOAD | 0x00A8 | double64 本地变量加载 |
+| D\_STORE | 0x00A9 | double64 本地变量存储 |
+| D\_CE | 0x00AA | double64 等于条件判断 |
+| D\_CNE | 0x00AB | double64 不等于条件判断 |
+| D\_CG | 0x00AC | double64 大于条件判断 |
+| D\_CGE | 0x00AD | double64 大于等于条件判断 |
+| D\_CL | 0x00AE | double64 小于条件判断 |
+| D\_CLE | 0x00AF | double64 小于等于条件判断 |
+
+---
+
+## 7. 类型转换(0x00C0-0x00DF)
+
+| 指令名 | 十六进制 | 说明 |
+|-----|--------|--------------------|
+| B2S | 0x00C0 | byte8 转 short16 |
+| B2I | 0x00C1 | byte8 转 int32 |
+| B2L | 0x00C2 | byte8 转 long64 |
+| B2F | 0x00C3 | byte8 转 float32 |
+| B2D | 0x00C4 | byte8 转 double64 |
+| S2B | 0x00C5 | short16 转 byte8 |
+| S2I | 0x00C6 | short16 转 int32 |
+| S2L | 0x00C7 | short16 转 long64 |
+| S2F | 0x00C8 | short16 转 float32 |
+| S2D | 0x00C9 | short16 转 double64 |
+| I2B | 0x00CA | int32 转 byte8 |
+| I2S | 0x00CB | int32 转 short16 |
+| I2L | 0x00CC | int32 转 long64 |
+| I2F | 0x00CD | int32 转 float32 |
+| I2D | 0x00CE | int32 转 double64 |
+| L2B | 0x00CF | long64 转 byte8 |
+| L2S | 0x00D0 | long64 转 short16 |
+| L2I | 0x00D1 | long64 转 int32 |
+| L2F | 0x00D2 | long64 转 float32 |
+| L2D | 0x00D3 | long64 转 double64 |
+| F2B | 0x00D4 | float32 转 byte8 |
+| F2S | 0x00D5 | float32 转 short16 |
+| F2I | 0x00D6 | float32 转 int32 |
+| F2L | 0x00D7 | float32 转 long64 |
+| F2D | 0x00D8 | float32 转 double64 |
+| D2B | 0x00D9 | double64 转 byte8 |
+| D2S | 0x00DA | double64 转 short16 |
+| D2I | 0x00DB | double64 转 int32 |
+| D2L | 0x00DC | double64 转 long64 |
+| D2F | 0x00DD | double64 转 float32 |
+
+
+
+---
+
+## 8. 栈控制(0x0100-0x01FF)
+
+| 指令名 | 十六进制 | 说明 |
+|------|--------|----------|
+| POP | 0x0100 | 弹出栈顶元素 |
+| DUP | 0x0101 | 复制栈顶元素 |
+| SWAP | 0x0102 | 交换栈顶前两元素 |
+
+---
+
+## 9. 流程控制(0x0200-0x02FF)
+
+| 指令名 | 十六进制/十进制 | 说明 |
+|------|----------|-------|
+| JUMP | 0x0200 | 无条件跳转 |
+| CALL | 0x0201 | 子程序调用 |
+| RET | 0x0202 | 子程序返回 |
+
+---
+
+## 10. 寄存器控制(0x0300-0x03FF)
+
+| 指令名 | 十六进制 | 说明 |
+|-----|--------|---------|
+| MOV | 0x0300 | 局部变量间赋值 |
+
+---
+
+## 11. 系统控制(0x0400-0x04FF)
+
+| 指令名 | 十六进制 | 说明 |
+|-------------|--------|------|
+| HALT | 0x0400 | 程序终止 |
+| SYSCALL | 0x0401 | 系统调用 |
+| DEBUG\_TRAP | 0x0402 | 调试断点 |
\ No newline at end of file
diff --git a/playground/BugFarm/Bug1/Main.snow b/playground/BugFarm/Bug1/Main.snow
new file mode 100644
index 0000000..4a13b7d
--- /dev/null
+++ b/playground/BugFarm/Bug1/Main.snow
@@ -0,0 +1,17 @@
+module: Main
+ function: main
+ parameter:
+ return_type: int
+ body:
+ declare n1: int =1
+ declare n2: int =2
+ declare n3: int =1
+ if n1 ==1 then
+ if n2 ==2 then
+ n3 =3
+ end if
+ end if
+ return n3
+ end body
+ end function
+end module
\ No newline at end of file
diff --git a/playground/BugFarm/Bug1/README.md b/playground/BugFarm/Bug1/README.md
new file mode 100644
index 0000000..b34d14d
--- /dev/null
+++ b/playground/BugFarm/Bug1/README.md
@@ -0,0 +1,12 @@
+## 编译器输出
+### Snow 源代码
+#### Main.snow
+```snow
+function: main
+ return_type: int
+ body:
+ 3 L
+ return 65537
+ end body
+end function
+```
\ No newline at end of file
diff --git a/playground/Demo1/Main.snow b/playground/Demo1/Main.snow
index 08eeda8..9058208 100644
--- a/playground/Demo1/Main.snow
+++ b/playground/Demo1/Main.snow
@@ -1,11 +1,10 @@
module: Main
import:Math
function: main
- parameter:
return_type: int
body:
- Math.factorial(6L,1L)
+ Math.add(6,1)
return 0
end body
end function
-end module
+end module
\ No newline at end of file
diff --git a/playground/Demo1/Math.snow b/playground/Demo1/Math.snow
index bfe8605..2e5963e 100644
--- a/playground/Demo1/Math.snow
+++ b/playground/Demo1/Math.snow
@@ -1,11 +1,11 @@
module: Math
- function: factorial
+ function: add
parameter:
- declare n1: long
- declare n2: long
- return_type: long
+ declare n1: int
+ declare n2: int
+ return_type: int
body:
- return n1+n2
+ return n1 + n2
end body
end function
end module
\ No newline at end of file
diff --git a/playground/Demo11/Main.snow b/playground/Demo11/Main.snow
new file mode 100644
index 0000000..3dd121d
--- /dev/null
+++ b/playground/Demo11/Main.snow
@@ -0,0 +1,6 @@
+function: main
+ return_type: int
+ body:
+ return 65537
+ end body
+end function
\ No newline at end of file
diff --git a/pom.xml b/pom.xml
index 87b4f35..285cc54 100644
--- a/pom.xml
+++ b/pom.xml
@@ -38,14 +38,9 @@
org.apache.maven.plugins
maven-compiler-plugin
- 3.12.1
+ 3.14.0
-
- true
-
+ 24
diff --git a/src/main/java/org/jcnc/snow/cli/SnowCLI.java b/src/main/java/org/jcnc/snow/cli/SnowCLI.java
index 03a4391..0ce6ba0 100644
--- a/src/main/java/org/jcnc/snow/cli/SnowCLI.java
+++ b/src/main/java/org/jcnc/snow/cli/SnowCLI.java
@@ -91,7 +91,7 @@ public class SnowCLI {
System.exit(exitCode);
} catch (Exception e) {
// 捕获命令执行过程中的异常并打印错误消息
- System.err.println("Error: " + e.getMessage());
+ System.err.println(e.getMessage());
System.exit(1);
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/ir/builder/StatementBuilder.java b/src/main/java/org/jcnc/snow/compiler/ir/builder/StatementBuilder.java
index f731c57..557634b 100644
--- a/src/main/java/org/jcnc/snow/compiler/ir/builder/StatementBuilder.java
+++ b/src/main/java/org/jcnc/snow/compiler/ir/builder/StatementBuilder.java
@@ -66,12 +66,12 @@ public class StatementBuilder {
buildIf(ifNode);
return;
}
- if (stmt instanceof ExpressionStatementNode(ExpressionNode exp, _, _, _)) {
+ if (stmt instanceof ExpressionStatementNode(ExpressionNode exp, int _, int _, String _)) {
// 纯表达式语句,如 foo();
expr.build(exp);
return;
}
- if (stmt instanceof AssignmentNode(String var, ExpressionNode rhs, _, _, _)) {
+ if (stmt instanceof AssignmentNode(String var, ExpressionNode rhs, int _, int _, String _)) {
// 赋值语句,如 a = b + 1;
final String type = ctx.getScope().lookupType(var);
diff --git a/src/main/java/org/jcnc/snow/compiler/ir/utils/ComparisonUtils.java b/src/main/java/org/jcnc/snow/compiler/ir/utils/ComparisonUtils.java
index 59042e9..08b42b8 100644
--- a/src/main/java/org/jcnc/snow/compiler/ir/utils/ComparisonUtils.java
+++ b/src/main/java/org/jcnc/snow/compiler/ir/utils/ComparisonUtils.java
@@ -41,7 +41,7 @@ public final class ComparisonUtils {
/* ------------ 内部工具 ------------ */
private static boolean isLongLiteral(ExpressionNode node) {
- if (node instanceof NumberLiteralNode(String value)) {
+ if (node instanceof NumberLiteralNode(String value, int _, int _, String _)) {
return value.endsWith("L") || value.endsWith("l");
}
return false; // 变量暂不处理(后续可扩展符号表查询)
diff --git a/src/main/java/org/jcnc/snow/compiler/ir/utils/ExpressionUtils.java b/src/main/java/org/jcnc/snow/compiler/ir/utils/ExpressionUtils.java
index 7c93c9a..291b861 100644
--- a/src/main/java/org/jcnc/snow/compiler/ir/utils/ExpressionUtils.java
+++ b/src/main/java/org/jcnc/snow/compiler/ir/utils/ExpressionUtils.java
@@ -127,7 +127,7 @@ public final class ExpressionUtils {
/** 递归推断单个表达式节点的类型后缀(b/s/i/l/f/d)。 */
private static char typeChar(ExpressionNode node) {
- if (node instanceof NumberLiteralNode(String value)) {
+ if (node instanceof NumberLiteralNode(String value, int _, int _, String _)) {
char last = Character.toLowerCase(value.charAt(value.length() - 1));
return switch (last) {
case 'b','s','i','l','f','d' -> last;
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/core/LexerContext.java b/src/main/java/org/jcnc/snow/compiler/lexer/core/LexerContext.java
index dbfe62f..4462fca 100644
--- a/src/main/java/org/jcnc/snow/compiler/lexer/core/LexerContext.java
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/core/LexerContext.java
@@ -3,60 +3,72 @@ package org.jcnc.snow.compiler.lexer.core;
import org.jcnc.snow.compiler.lexer.base.TokenScanner;
/**
- * {@code LexerContext} 是词法分析阶段的上下文状态管理器。
+ * {@code LexerContext} —— 词法分析阶段的上下文状态管理器。
*
- * 该类提供对源代码字符流的读取访问,追踪当前行号与列号,
- * 并支持字符匹配、回看与指针推进等操作,是 {@link TokenScanner} 实现进行词法识别的重要支撑工具。
+ * 提供对源代码字符流的读取访问、行列号追踪、指针推进与字符匹配等操作,
+ * 是 {@link TokenScanner} 实现进行词法识别的基础设施。
*
*
- * 所有源代码输入在构造时统一将 Windows 风格的换行符(\r\n)转换为 Unix 风格(\n),
- * 保证换行行为一致性。
+ * 设计要点:
+ *
+ * - 构造时统一将 Windows 换行符 (
\r\n) 转换为 Unix 风格 (\n)。
+ * - 所有坐标均以 1 为起始行/列号,更贴合人类直觉。
+ * - 提供 {@link #peekAhead(int)} 方法以支持“向前多字符查看”而不移动游标。
+ *
*
*/
public class LexerContext {
- /** 源代码字符串,换行符已标准化为 \n */
+ /* ───────────────────────────────── 私有字段 ───────────────────────────────── */
+
+ /** 源代码字符串(换行符已标准化为 \n) */
private final String source;
- /** 当前扫描位置(从 0 开始的偏移) */
+ /** 当前扫描位置(自 0 起算的全局偏移量) */
private int pos = 0;
- /** 当前行号,从 1 开始 */
+ /** 当前行号(从 1 开始) */
private int line = 1;
- /** 当前列号,从 1 开始 */
+ /** 当前列号(从 1 开始) */
private int col = 1;
- /** 上一个字符对应的列号(用于位置精确记录) */
+ /** 上一个字符对应的列号(用于异常定位) */
private int lastCol = 1;
+ /* ──────────────────────────────── 构造 & 基本信息 ─────────────────────────────── */
+
/**
- * 构造一个新的 {@code LexerContext} 实例,并标准化换行符。
+ * 创建新的 {@code LexerContext},并完成换行符标准化。
*
- * @param source 原始源代码字符串
+ * @param rawSource 原始源代码文本
*/
- public LexerContext(String source) {
- this.source = source.replace("\r\n", "\n");
+ public LexerContext(String rawSource) {
+ this.source = rawSource.replace("\r\n", "\n");
}
/**
- * 判断是否已读取到源代码末尾。
+ * 判断是否已到达源代码结尾。
*
- * @return 若已结束,返回 {@code true};否则返回 {@code false}
+ * @return 若游标位于终点之后返回 {@code true}
*/
public boolean isAtEnd() {
return pos >= source.length();
}
+ /* ──────────────────────────────── 指针推进与查看 ─────────────────────────────── */
+
/**
- * 消费当前字符并前进一个位置,自动更新行列信息。
+ * 消费 当前 字符并前进一个位置,同时更新行列号。
*
- * @return 当前字符,若已结束则返回空字符('\0')
+ * @return 被消费的字符;若已结束则返回空字符 {@code '\0'}
*/
public char advance() {
if (isAtEnd()) return '\0';
+
char c = source.charAt(pos++);
lastCol = col;
+
if (c == '\n') {
line++;
col = 1;
@@ -67,9 +79,9 @@ public class LexerContext {
}
/**
- * 查看当前位置的字符,但不前进。
+ * 查看当前位置字符,但不移动游标。
*
- * @return 当前字符,若结束则返回空字符
+ * @return 当前字符;若越界则返回 {@code '\0'}
*/
public char peek() {
return isAtEnd() ? '\0' : source.charAt(pos);
@@ -78,17 +90,29 @@ public class LexerContext {
/**
* 查看下一个字符,但不改变位置。
*
- * @return 下一个字符,若结束则返回空字符
+ * @return 下一字符;若越界则返回 {@code '\0'}
*/
public char peekNext() {
return pos + 1 >= source.length() ? '\0' : source.charAt(pos + 1);
}
/**
- * 若当前字符与期望字符相同,则前进并返回 {@code true},否则不动并返回 {@code false}。
+ * 向前查看 offset 个字符(不移动游标)。offset=1 等价于 {@link #peekNext()}。
*
- * @param expected 期待匹配的字符
- * @return 是否匹配成功并消费
+ * @param offset 偏移量 (≥ 1)
+ * @return 指定偏移处的字符;若越界返回 {@code '\0'}
+ */
+ public char peekAhead(int offset) {
+ if (offset <= 0) return peek();
+ int idx = pos + offset;
+ return idx >= source.length() ? '\0' : source.charAt(idx);
+ }
+
+ /**
+ * 若当前位置字符等于 {@code expected},则消费并返回 {@code true};否则保持原位返回 {@code false}。
+ *
+ * @param expected 期望匹配的字符
+ * @return 是否匹配并消费
*/
public boolean match(char expected) {
if (isAtEnd() || source.charAt(pos) != expected) return false;
@@ -96,30 +120,17 @@ public class LexerContext {
return true;
}
- /**
- * 获取当前位置的行号。
- *
- * @return 当前行号(从 1 开始)
- */
- public int getLine() {
- return line;
- }
+ /* ──────────────────────────────── 坐标查询 ─────────────────────────────── */
- /**
- * 获取当前位置的列号。
- *
- * @return 当前列号(从 1 开始)
- */
- public int getCol() {
- return col;
- }
+ /** @return 当前行号 (1-based) */
+ public int getLine() { return line; }
- /**
- * 获取上一个字符所在的列号。
- *
- * @return 上一个字符对应的列位置
- */
- public int getLastCol() {
- return lastCol;
- }
+ /** @return 当前列号 (1-based) */
+ public int getCol() { return col; }
+
+ /** @return 上一个字符的列号 */
+ public int getLastCol() { return lastCol; }
+
+ /** @return 当前指针在源文件中的全局偏移 (0-based) */
+ public int getPos() { return pos; }
}
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/core/LexerEngine.java b/src/main/java/org/jcnc/snow/compiler/lexer/core/LexerEngine.java
index 4d06999..6d6bb2f 100644
--- a/src/main/java/org/jcnc/snow/compiler/lexer/core/LexerEngine.java
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/core/LexerEngine.java
@@ -3,109 +3,152 @@ package org.jcnc.snow.compiler.lexer.core;
import org.jcnc.snow.compiler.lexer.base.TokenScanner;
import org.jcnc.snow.compiler.lexer.scanners.*;
import org.jcnc.snow.compiler.lexer.token.Token;
+import org.jcnc.snow.compiler.lexer.token.TokenType;
+import org.jcnc.snow.compiler.lexer.utils.TokenPrinter;
+import java.io.File;
import java.util.ArrayList;
import java.util.List;
/**
- * {@code LexerEngine} 是编译器前端的词法分析器核心实现。
- *
- * 负责将源代码字符串按顺序扫描并转换为一系列 {@link Token} 实例,
- * 每个 Token 表示语法上可识别的最小单位(如标识符、关键字、常量、运算符等)。
- *
- * 分析流程通过注册多个 {@link TokenScanner} 扫描器实现类型识别,
- * 并由 {@link LexerContext} 提供字符流与位置信息支持。
- * 支持文件名传递,遇到非法字符时会以“文件名:行:列:错误信息”输出简洁诊断。
- *
+ * Snow 语言词法分析器核心实现。
+ * 采用“先扫描 → 后批量校验 → 统一报告”策略:
+ *
+ * - {@link #scanAllTokens()}— 用扫描器链把字符流拆成 {@link Token}
+ * - {@link #validateTokens()}— 基于 token 序列做轻量上下文校验
+ * - {@link #report(List)}— 一次性输出所有词法错误
+ *
*/
public class LexerEngine {
- /**
- * 扫描生成的 Token 序列(包含文件结束符 EOF)
- */
- private final List tokens = new ArrayList<>();
+
+ private final List tokens = new ArrayList<>(); // 扫描结果
+ private final List errors = new ArrayList<>();
+ private final String absPath; // 绝对路径
+ private final LexerContext context; // 字符流
+ private final List scanners; // 扫描器链
/**
- * 词法上下文,提供字符流读取与位置信息
- */
- private final LexerContext context;
-
- /**
- * Token 扫描器集合,按优先级顺序组织,用于识别不同类别的 Token
- */
- private final List scanners;
-
- /**
- * 构造词法分析器(假定输入源自标准输入,文件名默认为 )
- *
- * @param source 源代码文本
- */
- public LexerEngine(String source) {
- this(source, "");
- }
-
- /**
- * 构造词法分析器,并指定源文件名(用于诊断信息)。
- * 构造时立即进行全量扫描。
- *
+ * 创建并立即执行扫描-校验-报告流程。
* @param source 源代码文本
- * @param sourceName 文件名或来源描述(如"Main.snow")
+ * @param sourceName 文件名(诊断用)
*/
public LexerEngine(String source, String sourceName) {
- this.context = new LexerContext(source);
+ this.absPath = new File(sourceName).getAbsolutePath();
+ this.context = new LexerContext(source);
this.scanners = List.of(
- new WhitespaceTokenScanner(), // 跳过空格、制表符等
- new NewlineTokenScanner(), // 处理换行符,生成 NEWLINE Token
- new CommentTokenScanner(), // 处理单行/多行注释
- new NumberTokenScanner(), // 识别整数与浮点数字面量
- new IdentifierTokenScanner(), // 识别标识符和关键字
- new StringTokenScanner(), // 处理字符串常量
- new OperatorTokenScanner(), // 识别运算符
- new SymbolTokenScanner(), // 识别括号、分号等符号
- new UnknownTokenScanner() // 捕捉无法识别的字符,最后兜底
+ new WhitespaceTokenScanner(),
+ new NewlineTokenScanner(),
+ new CommentTokenScanner(),
+ new NumberTokenScanner(),
+ new IdentifierTokenScanner(),
+ new StringTokenScanner(),
+ new OperatorTokenScanner(),
+ new SymbolTokenScanner(),
+ new UnknownTokenScanner()
);
- // 主扫描流程,遇到非法字符立即输出错误并终止进程
- try {
- scanAllTokens();
- } catch (LexicalException le) {
- // 输出:文件名:行:列: 错误信息,简洁明了
- System.err.printf(
- "%s:%d:%d: %s%n",
- sourceName,
- le.getLine(), // 获取出错行号
- le.getColumn(), // 获取出错列号
- le.getMessage() // 错误描述
+ /* 1. 扫描 */
+ scanAllTokens();
+ /* 2. 后置整体校验 */
+ validateTokens();
+ /* 3. 打印 token */
+ TokenPrinter.print(tokens);
+ /* 4. 统一报告错误 */
+ report(errors);
+ if (!errors.isEmpty()) {
+ throw new LexicalException(
+ "Lexing failed with " + errors.size() + " error(s).",
+ context.getLine(), context.getCol()
);
- System.exit(65); // 65 = EX_DATAERR,标准数据错误退出码
}
}
+ public static void report(List errors) {
+ if (errors == null || errors.isEmpty()) {
+ System.out.println("\n## 词法分析通过,没有发现错误\n");
+ return;
+ }
+ System.err.println("\n词法分析发现 " + errors.size() + " 个错误:");
+ errors.forEach(e -> System.err.println(" " + e));
+ }
+
+ public List getAllTokens() { return List.copyOf(tokens); }
+ public List getErrors() { return List.copyOf(errors); }
+
/**
- * 主扫描循环,将源代码转为 Token 序列
- * 依次尝试每个扫描器,直到找到可处理当前字符的扫描器为止
- * 扫描到结尾后补充 EOF Token
+ * 逐字符扫描:依次尝试各扫描器;扫描器抛出的
+ * {@link LexicalException} 被捕获并转为 {@link LexicalError}。
*/
private void scanAllTokens() {
while (!context.isAtEnd()) {
- char currentChar = context.peek();
- // 依次查找能处理当前字符的扫描器
- for (TokenScanner scanner : scanners) {
- if (scanner.canHandle(currentChar, context)) {
- scanner.handle(context, tokens);
- break; // 已处理,跳到下一个字符
+ char ch = context.peek();
+ boolean handled = false;
+
+ for (TokenScanner s : scanners) {
+ if (!s.canHandle(ch, context)) continue;
+
+ try {
+ s.handle(context, tokens);
+ } catch (LexicalException le) {
+ errors.add(new LexicalError(
+ absPath, le.getLine(), le.getColumn(), le.getReason()
+ ));
+ context.advance(); // 跳过问题字符
}
+ handled = true;
+ break;
}
+
+ if (!handled) context.advance(); // 理论不会走到,保险
}
- // 末尾补一个 EOF 标记
tokens.add(Token.eof(context.getLine()));
}
/**
- * 获取全部 Token(包含 EOF),返回只读列表
- *
- * @return 词法分析结果 Token 列表
+ * 目前包含三条规则:
+ * 1. Dot-Prefix'.' 不能作标识符前缀
+ * 2. Declare-Ident declare 后必须紧跟合法标识符,并且只能一个
+ * 3. Double-Ident declare 后若出现第二个 IDENTIFIER 视为多余
+ * 发现问题仅写入 {@link #errors},不抛异常。
*/
- public List getAllTokens() {
- return List.copyOf(tokens);
+ private void validateTokens() {
+ for (int i = 0; i < tokens.size(); i++) {
+ Token tok = tokens.get(i);
+
+ /* ---------- declare 规则 ---------- */
+ if (tok.getType() == TokenType.KEYWORD
+ && "declare".equalsIgnoreCase(tok.getLexeme())) {
+
+ // 第一个非 NEWLINE token
+ Token id1 = findNextNonNewline(i);
+ if (id1 == null || id1.getType() != TokenType.IDENTIFIER) {
+ errors.add(err(
+ (id1 == null ? tok : id1),
+ "declare 后必须跟合法标识符 (以字母或 '_' 开头)"
+ ));
+ continue; // 若首标识符就错,后续检查可略
+ }
+
+ // 检查是否有第二个 IDENTIFIER
+ Token id2 = findNextNonNewline(tokens.indexOf(id1));
+ if (id2 != null && id2.getType() == TokenType.IDENTIFIER) {
+ errors.add(err(id2, "declare 声明中出现多余的标识符"));
+ }
+ }
+ }
+ }
+
+ /** index 右侧最近非 NEWLINE token;无则 null */
+ private Token findNextNonNewline(int index) {
+ for (int j = index + 1; j < tokens.size(); j++) {
+ Token t = tokens.get(j);
+ if (t.getType() != TokenType.NEWLINE) return t;
+ }
+ return null;
+ }
+
+ /** 构造统一的 LexicalError */
+ private LexicalError err(Token t, String msg) {
+ return new LexicalError(absPath, t.getLine(), t.getCol(), "非法的标记序列:" + msg);
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/core/LexicalError.java b/src/main/java/org/jcnc/snow/compiler/lexer/core/LexicalError.java
new file mode 100644
index 0000000..81ac9ee
--- /dev/null
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/core/LexicalError.java
@@ -0,0 +1,20 @@
+package org.jcnc.snow.compiler.lexer.core;
+
+public class LexicalError {
+ private final String file;
+ private final int line;
+ private final int column;
+ private final String message;
+
+ public LexicalError(String file, int line, int column, String message) {
+ this.file = file;
+ this.line = line;
+ this.column = column;
+ this.message = message;
+ }
+
+ @Override
+ public String toString() {
+ return file + ": 行 " + line + ", 列 " + column + ": " + message;
+ }
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/core/LexicalException.java b/src/main/java/org/jcnc/snow/compiler/lexer/core/LexicalException.java
index 96cfc0c..cdd01cb 100644
--- a/src/main/java/org/jcnc/snow/compiler/lexer/core/LexicalException.java
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/core/LexicalException.java
@@ -19,6 +19,8 @@ public class LexicalException extends RuntimeException {
private final int line;
/** 错误发生的列号(从1开始) */
private final int column;
+ /** 错误原因 */
+ private final String reason;
/**
* 构造词法异常
@@ -27,13 +29,14 @@ public class LexicalException extends RuntimeException {
* @param column 出错列号
*/
public LexicalException(String reason, int line, int column) {
- // 构造出错消息,并禁止异常堆栈打印
- super(String.format("Lexical error: %s at %d:%d", reason, line, column),
- null, false, false);
+ // 错误描述直接为 reason,禁止异常堆栈打印
+ super(reason, null, false, false);
+ this.reason = reason;
this.line = line;
this.column = column;
}
+
/**
* 屏蔽异常堆栈填充(始终不打印堆栈信息)
*/
@@ -51,4 +54,10 @@ public class LexicalException extends RuntimeException {
* @return 列号
*/
public int getColumn() { return column; }
+
+ /**
+ * 获取出错的描述
+ * @return 出错描述
+ */
+ public String getReason() { return reason; }
}
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/CommentTokenScanner.java b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/CommentTokenScanner.java
index a8a3313..90204ce 100644
--- a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/CommentTokenScanner.java
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/CommentTokenScanner.java
@@ -1,29 +1,30 @@
package org.jcnc.snow.compiler.lexer.scanners;
import org.jcnc.snow.compiler.lexer.core.LexerContext;
+import org.jcnc.snow.compiler.lexer.core.LexicalException;
import org.jcnc.snow.compiler.lexer.token.Token;
import org.jcnc.snow.compiler.lexer.token.TokenType;
/**
- * 注释扫描器:处理源代码中的注释部分,包括:
+ * {@code CommentTokenScanner} —— 注释解析器,基于有限状态机(FSM)。
+ *
+ * 负责将源码中的两种注释形式切分为 {@link TokenType#COMMENT COMMENT} token:
+ *
+ * - 单行注释:以 {@code //} 开头,直至行尾或文件末尾。
+ * - 多行注释:以 {@code /*} 开头,以
*/ 结束,可跨多行。
+ *
+ *
+ * 本扫描器遵循“发现即捕获”原则:注释文本被完整保留在 Token 中,供后续的文档提取、源映射等分析使用。
+ *
+ * 错误处理策略
*
- * - 单行注释(以 "//" 开头,直到行尾)
- * - 多行注释(以 "/*" 开头,以 "*/" 结尾)
+ * - 未终止的多行注释:若文件结束时仍未遇到
*/,抛出 {@link LexicalException}。
*
- *
- * 本扫描器会识别注释并生成 {@code TokenType.COMMENT} 类型的 Token,
- * 不会丢弃注释内容,而是将完整注释文本保留在 Token 中,便于后续分析(如文档提取、保留注释等场景)。
- *
*/
public class CommentTokenScanner extends AbstractTokenScanner {
/**
- * 判断是否可以处理当前位置的字符。
- * 当当前位置字符为 '/' 且下一个字符为 '/' 或 '*' 时,表示可能是注释的起始。
- *
- * @param c 当前字符
- * @param ctx 当前词法上下文
- * @return 如果是注释的起始符,则返回 true
+ * 仅当当前字符为 {@code '/'} 且下一个字符为 {@code '/'} 或 {@code '*'} 时,由本扫描器处理。
*/
@Override
public boolean canHandle(char c, LexerContext ctx) {
@@ -31,44 +32,75 @@ public class CommentTokenScanner extends AbstractTokenScanner {
}
/**
- * 实现注释的扫描逻辑。
- * 支持两种注释格式:
- *
- * - 单行注释: 以 "//" 开头,直到遇到换行符
- * - 多行注释: 以 "/*" 开头,直到遇到 "*/" 结束
- *
+ * 执行注释扫描,生成 {@code COMMENT} Token。
*
* @param ctx 词法上下文
- * @param line 当前行号(用于 Token 位置信息)
- * @param col 当前列号(用于 Token 位置信息)
- * @return 包含完整注释内容的 COMMENT 类型 Token
+ * @param line 起始行号(1 基)
+ * @param col 起始列号(1 基)
+ * @return 包含完整注释文本的 Token
+ * @throws LexicalException 若遇到未终止的多行注释
*/
@Override
protected Token scanToken(LexerContext ctx, int line, int col) {
- // 消费第一个 '/' 字符
- ctx.advance();
- StringBuilder sb = new StringBuilder("/");
+ StringBuilder literal = new StringBuilder();
+ State currentState = State.INITIAL;
- // 处理单行注释 //
- if (ctx.match('/')) {
- sb.append('/');
- while (!ctx.isAtEnd() && ctx.peek() != '\n') {
- sb.append(ctx.advance());
- }
- }
- // 处理多行注释 /* ... */
- else if (ctx.match('*')) {
- sb.append('*');
- while (!ctx.isAtEnd()) {
- char ch = ctx.advance();
- sb.append(ch);
- if (ch == '*' && ctx.peek() == '/') {
- sb.append(ctx.advance()); // 消费 '/'
+ // 读取注释起始符
+ literal.append(ctx.advance()); // 消费首个 '/'
+
+ while (!ctx.isAtEnd()) {
+ switch (currentState) {
+ case INITIAL:
+ if (ctx.match('/')) {
+ literal.append('/');
+ currentState = State.SINGLE_LINE;
+ } else if (ctx.match('*')) {
+ literal.append('*');
+ currentState = State.MULTI_LINE;
+ }
break;
- }
+
+ case SINGLE_LINE:
+ // 单行注释处理:读取直到行尾
+ if (ctx.isAtEnd() || ctx.peek() == '\n') {
+ // 如果遇到换行符,停止读取并返回注释内容
+ return new Token(TokenType.COMMENT, literal.toString(), line, col);
+ } else {
+ literal.append(ctx.advance()); // 继续读取注释内容
+ }
+ break;
+
+
+ case MULTI_LINE:
+ // 多行注释处理
+ char ch = ctx.advance();
+ literal.append(ch);
+ if (ch == '*' && ctx.peek() == '/') {
+ literal.append(ctx.advance()); // 追加 '/'
+ currentState = State.MULTI_LINE_END;
+ }
+ break;
+
+ case MULTI_LINE_END:
+ // 已经读取了闭合的 "*/"
+ return new Token(TokenType.COMMENT, literal.toString(), line, col);
}
}
- return new Token(TokenType.COMMENT, sb.toString(), line, col);
+ // 如果未终止的多行注释,抛出异常
+ if (currentState == State.MULTI_LINE) {
+ throw new LexicalException("未终止的多行注释", line, col);
+ }
+
+ // 在正常情况下返回生成的注释 Token
+ return new Token(TokenType.COMMENT, literal.toString(), line, col);
+ }
+
+ // 定义状态
+ private enum State {
+ INITIAL, // 初始状态
+ SINGLE_LINE, // 单行注释状态
+ MULTI_LINE, // 多行注释状态
+ MULTI_LINE_END // 多行注释结束状态
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/IdentifierTokenScanner.java b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/IdentifierTokenScanner.java
index 633d834..1e18cbb 100644
--- a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/IdentifierTokenScanner.java
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/IdentifierTokenScanner.java
@@ -1,30 +1,34 @@
package org.jcnc.snow.compiler.lexer.scanners;
import org.jcnc.snow.compiler.lexer.core.LexerContext;
+import org.jcnc.snow.compiler.lexer.core.LexicalException;
import org.jcnc.snow.compiler.lexer.token.Token;
import org.jcnc.snow.compiler.lexer.token.TokenFactory;
+import org.jcnc.snow.compiler.lexer.token.TokenType;
/**
- * 标识符扫描器:处理标识符的识别,如变量名、函数名等。
- *
- * 识别规则如下:
+ * {@code IdentifierTokenScanner} —— 标识符扫描器,负责识别源代码中的标识符(如变量名、函数名等)。
+ *
+ *
标识符的识别遵循以下规则:
*
- * - 必须以字母或下划线(_)开头
- * - 后续字符可以是字母、数字或下划线
+ * - 标识符必须以字母(A-Z,a-z)或下划线(_)开头。
+ * - 标识符的后续字符可以是字母、数字(0-9)或下划线。
*
- *
- * 扫描完成后会调用 {@link TokenFactory} 自动判断是否为关键字,
- * 并返回对应类型的 {@link Token}。
+ *
+ *
在扫描过程中,标识符会被处理为一个 {@link Token} 对象。如果该标识符是一个关键字,
+ * 扫描器会通过 {@link TokenFactory} 自动识别并返回相应的 {@link TokenType}。
+ *
+ * 本扫描器实现了一个有限状态机(FSM),它能够在不同状态之间转换,确保标识符的正确识别。
*/
public class IdentifierTokenScanner extends AbstractTokenScanner {
/**
- * 判断是否可以处理当前位置的字符。
- * 如果字符为字母或下划线,则认为是标识符的起始。
+ * 判断当前字符是否可以作为标识符的起始字符。
+ * 如果字符为字母或下划线,则认为是标识符的开始。
*
* @param c 当前字符
* @param ctx 当前词法上下文
- * @return 如果是标识符起始字符,则返回 true
+ * @return 如果字符是标识符的起始字符,则返回 {@code true};否则返回 {@code false}。
*/
@Override
public boolean canHandle(char c, LexerContext ctx) {
@@ -32,17 +36,57 @@ public class IdentifierTokenScanner extends AbstractTokenScanner {
}
/**
- * 执行标识符的扫描逻辑。
- * 连续读取满足标识符规则的字符序列,交由 {@code TokenFactory} 创建对应的 Token。
+ * 执行标识符扫描。
+ * 使用状态机模式扫描标识符。首先从初始状态开始,读取标识符的起始字符(字母或下划线)。
+ * 然后,进入标识符状态,继续读取标识符字符(字母、数字或下划线)。一旦遇到不符合标识符规则的字符,
+ * 标识符扫描结束,返回一个 {@link Token}。
*
- * @param ctx 词法上下文
- * @param line 当前行号
- * @param col 当前列号
- * @return 标识符或关键字类型的 Token
+ * @param ctx 词法上下文,用于获取字符流
+ * @param line 当前行号(1 基)
+ * @param col 当前列号(1 基)
+ * @return 返回一个包含标识符或关键字的 {@link Token} 对象。
+ * @throws LexicalException 如果标识符以非法字符(如点号)开头,则抛出异常
*/
@Override
protected Token scanToken(LexerContext ctx, int line, int col) {
- String lexeme = readWhile(ctx, ch -> Character.isLetterOrDigit(ch) || ch == '_');
- return TokenFactory.create(lexeme, line, col);
+ StringBuilder lexeme = new StringBuilder(); // 用于构建标识符的字符串
+ State currentState = State.INITIAL; // 初始状态
+
+ // 遍历字符流,直到遇到不合法的字符或流结束
+ while (!ctx.isAtEnd()) {
+ char currentChar = ctx.peek(); // 获取当前字符
+ switch (currentState) {
+ case INITIAL:
+ // 初始状态,标识符开始
+ if (Character.isLetter(currentChar) || currentChar == '_') {
+ lexeme.append(ctx.advance()); // 接受当前字符
+ currentState = State.IDENTIFIER; // 进入标识符状态
+ } else {
+ return null; // 当前字符不符合标识符的规则,返回 null
+ }
+ break;
+
+ case IDENTIFIER:
+ // 标识符状态,继续读取合法标识符字符
+ if (Character.isLetterOrDigit(currentChar) || currentChar == '_') {
+ lexeme.append(ctx.advance()); // 继续接受合法字符
+ } else {
+ // 当前字符不符合标识符的规则,标识符结束,返回 token
+ return TokenFactory.create(lexeme.toString(), line, col);
+ }
+ break;
+ }
+ }
+
+ // 如果字符流结束,返回标识符 token
+ return TokenFactory.create(lexeme.toString(), line, col);
+ }
+
+ /**
+ * 枚举类型表示标识符扫描的状态。
+ */
+ private enum State {
+ INITIAL, // 初始状态,等待标识符的开始
+ IDENTIFIER // 标识符状态,继续读取标识符字符
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/NewlineTokenScanner.java b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/NewlineTokenScanner.java
index daea57c..0f63e70 100644
--- a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/NewlineTokenScanner.java
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/NewlineTokenScanner.java
@@ -7,10 +7,19 @@ import org.jcnc.snow.compiler.lexer.token.TokenType;
/**
* 换行符扫描器:将源代码中的换行符(\n)识别为 {@code NEWLINE} 类型的 Token。
*
- * 通常用于记录行的分界,辅助语法分析阶段进行行敏感的判断或保持结构清晰。
+ * 用于记录行的分界,辅助语法分析阶段进行行敏感的判断或保持结构清晰。
*/
public class NewlineTokenScanner extends AbstractTokenScanner {
+ // 定义状态枚举
+ private enum State {
+ INITIAL,
+ NEWLINE
+ }
+
+ // 当前状态
+ private State currentState = State.INITIAL;
+
/**
* 判断是否可以处理当前位置的字符。
*
当字符为换行符(\n)时返回 true。
@@ -21,7 +30,8 @@ public class NewlineTokenScanner extends AbstractTokenScanner {
*/
@Override
public boolean canHandle(char c, LexerContext ctx) {
- return c == '\n';
+ // 只有当处于 INITIAL 状态,并且遇到换行符时,才可以处理
+ return currentState == State.INITIAL && c == '\n';
}
/**
@@ -35,7 +45,16 @@ public class NewlineTokenScanner extends AbstractTokenScanner {
*/
@Override
protected Token scanToken(LexerContext ctx, int line, int col) {
+ // 状态转换为 NEWLINE
+ currentState = State.NEWLINE;
+
+ // 执行换行符扫描,生成 token
ctx.advance();
- return new Token(TokenType.NEWLINE, "\n", line, col);
+ Token newlineToken = new Token(TokenType.NEWLINE, "\n", line, col);
+
+ // 扫描完成后,恢复状态为 INITIAL
+ currentState = State.INITIAL;
+
+ return newlineToken;
}
-}
\ No newline at end of file
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/NumberTokenScanner.java b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/NumberTokenScanner.java
index 517509f..88592b9 100644
--- a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/NumberTokenScanner.java
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/NumberTokenScanner.java
@@ -1,39 +1,65 @@
package org.jcnc.snow.compiler.lexer.scanners;
import org.jcnc.snow.compiler.lexer.core.LexerContext;
+import org.jcnc.snow.compiler.lexer.core.LexicalException;
import org.jcnc.snow.compiler.lexer.token.Token;
import org.jcnc.snow.compiler.lexer.token.TokenType;
/**
- * 数字扫描器:识别整数、小数以及带有类型后缀的数字字面量。
+ * NumberTokenScanner —— 基于有限状态机(FSM)的数字字面量解析器。
*
- * 支持的格式示例:
+ * 该扫描器负责将源码中的数字字符串切分为 NUMBER_LITERAL token,当前支持:
+ *
+ * - 十进制整数(如 0,42,123456)
+ * - 十进制小数(如 3.14,0.5)
+ * - 单字符类型后缀(如 2.0f,255B,合法集合见 SUFFIX_CHARS)
+ *
+ *
+ * 如果后续需要支持科学计数法、下划线分隔符、不同进制等,只需扩展现有状态机的转移规则。
+ *
+ *
+ * 状态机简述:
+ * INT_PART --'.'--> DEC_POINT
+ * | |
+ * | v
+ * else------------> END
+ * |
+ * v
+ * DEC_POINT --digit--> FRAC_PART
+ *
+ * 状态说明:
*
- * - 整数:123、0、45678
- * - 小数:3.14、0.5、12.0
- * - 带类型后缀:2.0f、42L、7s、255B
+ * - INT_PART :读取整数部分,遇到 '.' 进入 DEC_POINT,否则结束。
+ * - DEC_POINT :已读到小数点,必须下一个字符是数字,否则报错。
+ * - FRAC_PART :读取小数部分,遇非法字符则结束主体。
+ * - END :主体扫描结束,进入后缀/尾随字符判定。
*
- *
- * 语法允许在数字 (整数或小数) 末尾添加以下单字符后缀来显式指定常量类型:
- *
b | s | l | f | d // 分别对应 byte、short、long、float、double
- * B | S | L | F | D // 同上,大小写皆可
- * 生成的 Token 类型始终为 {@code NUMBER_LITERAL},词法单元将携带完整的文本(含后缀,若存在)。
+ *
+ * 错误处理策略:
+ *
+ * - 数字后跟未知字母(如 42X)—— 抛出 LexicalException
+ * - 数字与合法后缀间有空白(如 3 L)—— 抛出 LexicalException
+ * - 小数点后缺失数字(如 1.)—— 抛出 LexicalException
+ *
+ *
+ * 支持的单字符类型后缀包括:b, s, l, f, d 及其大写形式。若需支持多字符后缀,可将该集合扩展为 Set。
*/
public class NumberTokenScanner extends AbstractTokenScanner {
/**
- * 可选类型后缀字符集合 (大小写均可)。
- * 与 {@code ExpressionBuilder} 内的后缀解析逻辑保持一致。
+ * 支持的单字符类型后缀集合。
+ * 包含:b, s, l, f, d 及其大写形式。
+ * 对于多字符后缀,可扩展为 Set 并在扫描尾部做贪婪匹配。
*/
private static final String SUFFIX_CHARS = "bslfdBSLFD";
/**
- * 判断是否可以处理当前位置的字符。
- * 当字符为数字时,表示可能是数字字面量的起始。
+ * 判断是否由该扫描器处理。
+ * 仅当首字符为数字时,NumberTokenScanner 介入处理。
*
- * @param c 当前字符
- * @param ctx 当前词法上下文
- * @return 如果为数字字符,则返回 true
+ * @param c 当前待判断字符
+ * @param ctx 当前 LexerContext
+ * @return 如果为数字返回 true,否则返回 false
*/
@Override
public boolean canHandle(char c, LexerContext ctx) {
@@ -41,52 +67,88 @@ public class NumberTokenScanner extends AbstractTokenScanner {
}
/**
- * 执行数字扫描逻辑。
- *
- * - 连续读取数字字符,允许出现一个小数点,用于识别整数或小数。
- * - 读取完主体后,一次性检查下一个字符,若属于合法类型后缀则吸收。
- *
- * 这样可以保证诸如 {@code 2.0f} 被视为一个整体的 {@code NUMBER_LITERAL},
- * 而不是拆分成 "2.0" 与 "f" 两个 Token。
+ * 按照有限状态机读取完整数字字面量,并对尾随字符进行合法性校验。
*
- * @param ctx 词法上下文
- * @param line 当前行号
- * @param col 当前列号
- * @return 表示数字字面量的 Token
+ * @param ctx 当前 LexerContext
+ * @param line 源码起始行号(1 基)
+ * @param col 源码起始列号(1 基)
+ * @return NUMBER_LITERAL 类型的 Token
+ * @throws LexicalException 如果遇到非法格式或未受支持的尾随字符
*/
@Override
- protected Token scanToken(LexerContext ctx, int line, int col) {
- StringBuilder sb = new StringBuilder();
- boolean hasDot = false; // 标识是否已经遇到过小数点
+ protected Token scanToken(LexerContext ctx, int line, int col) throws LexicalException {
+ StringBuilder literal = new StringBuilder();
+ State state = State.INT_PART;
- /*
- * 1️⃣ 扫描整数或小数主体
- * 允许出现一个小数点,其余必须是数字。
- */
- while (!ctx.isAtEnd()) {
- char c = ctx.peek();
- if (c == '.' && !hasDot) {
- hasDot = true;
- sb.append(ctx.advance());
- } else if (Character.isDigit(c)) {
- sb.append(ctx.advance());
- } else {
- break; // 遇到非数字/第二个点 => 主体结束
+ /* ───── 1. 主体扫描 —— 整数 / 小数 ───── */
+ mainLoop:
+ while (!ctx.isAtEnd() && state != State.END) {
+ char ch = ctx.peek();
+ switch (state) {
+ /* 整数部分 */
+ case INT_PART:
+ if (Character.isDigit(ch)) {
+ literal.append(ctx.advance());
+ } else if (ch == '.') {
+ state = State.DEC_POINT;
+ literal.append(ctx.advance());
+ } else {
+ state = State.END;
+ }
+ break;
+
+ /* 已读到小数点,下一字符必须是数字 */
+ case DEC_POINT:
+ if (Character.isDigit(ch)) {
+ state = State.FRAC_PART;
+ literal.append(ctx.advance());
+ } else {
+ throw new LexicalException("小数点后必须跟数字", line, col);
+ }
+ break;
+
+ /* 小数部分 */
+ case FRAC_PART:
+ if (Character.isDigit(ch)) {
+ literal.append(ctx.advance());
+ } else {
+ state = State.END;
+ }
+ break;
+
+ default:
+ break mainLoop;
}
}
- /*
- * 2️⃣ 可选类型后缀
- * 如果下一字符是合法后缀字母,则一起纳入当前 Token。
- */
+ /* ───── 2. 后缀及非法尾随字符检查 ───── */
if (!ctx.isAtEnd()) {
- char suffix = ctx.peek();
- if (SUFFIX_CHARS.indexOf(suffix) >= 0) {
- sb.append(ctx.advance());
+ char next = ctx.peek();
+
+ /* 2-A. 合法单字符后缀(紧邻数字,不允许空格) */
+ if (SUFFIX_CHARS.indexOf(next) >= 0) {
+ literal.append(ctx.advance());
}
+ /* 2-B. 未知紧邻字母后缀 —— 报错 */
+ else if (Character.isLetter(next)) {
+ throw new LexicalException("未知的数字类型后缀 '" + next + "'", line, col);
+ }
+ /* 其余情况交由外层扫描器处理(包括空白及其它符号) */
}
- // 构造并返回 NUMBER_LITERAL Token,文本内容形如 "123", "3.14f" 等。
- return new Token(TokenType.NUMBER_LITERAL, sb.toString(), line, col);
+ /* ───── 3. 生成并返回 Token ───── */
+ return new Token(TokenType.NUMBER_LITERAL, literal.toString(), line, col);
+ }
+
+ /** FSM 内部状态定义 */
+ private enum State {
+ /** 整数部分 */
+ INT_PART,
+ /** 已读到小数点,但还未读到第一位小数数字 */
+ DEC_POINT,
+ /** 小数部分 */
+ FRAC_PART,
+ /** 主体结束,准备处理后缀或交还控制权 */
+ END
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/OperatorTokenScanner.java b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/OperatorTokenScanner.java
index ec2f2bf..951b1c5 100644
--- a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/OperatorTokenScanner.java
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/OperatorTokenScanner.java
@@ -45,80 +45,84 @@ public class OperatorTokenScanner extends AbstractTokenScanner {
@Override
protected Token scanToken(LexerContext ctx, int line, int col) {
char c = ctx.advance();
- String lexeme;
- TokenType type;
+ String lexeme = String.valueOf(c);
+ TokenType type = TokenType.UNKNOWN;
+
+ // 当前状态
+ State currentState = State.OPERATOR;
switch (c) {
case '=':
if (ctx.match('=')) {
lexeme = "==";
- type = TokenType.DOUBLE_EQUALS;
+ type = TokenType.DOUBLE_EQUALS;
} else {
- lexeme = "=";
- type = TokenType.EQUALS;
+ type = TokenType.EQUALS;
}
break;
case '!':
if (ctx.match('=')) {
lexeme = "!=";
- type = TokenType.NOT_EQUALS;
+ type = TokenType.NOT_EQUALS;
} else {
- lexeme = "!";
- type = TokenType.NOT;
+ type = TokenType.NOT;
}
break;
case '>':
if (ctx.match('=')) {
lexeme = ">=";
- type = TokenType.GREATER_EQUAL;
+ type = TokenType.GREATER_EQUAL;
} else {
- lexeme = ">";
- type = TokenType.GREATER_THAN;
+ type = TokenType.GREATER_THAN;
}
break;
case '<':
if (ctx.match('=')) {
lexeme = "<=";
- type = TokenType.LESS_EQUAL;
+ type = TokenType.LESS_EQUAL;
} else {
- lexeme = "<";
- type = TokenType.LESS_THAN;
+ type = TokenType.LESS_THAN;
}
break;
case '%':
- lexeme = "%";
- type = TokenType.MODULO;
+ type = TokenType.MODULO;
break;
case '&':
if (ctx.match('&')) {
lexeme = "&&";
- type = TokenType.AND;
- } else {
- lexeme = "&";
- type = TokenType.UNKNOWN;
+ type = TokenType.AND;
}
break;
case '|':
if (ctx.match('|')) {
lexeme = "||";
- type = TokenType.OR;
- } else {
- lexeme = "|";
- type = TokenType.UNKNOWN;
+ type = TokenType.OR;
}
break;
default:
- lexeme = String.valueOf(c);
- type = TokenType.UNKNOWN;
+ currentState = State.UNKNOWN;
+ break;
+ }
+
+ // 执行完扫描后,重置状态为初始状态
+ if (currentState != State.UNKNOWN) {
+ currentState = State.START;
}
return new Token(type, lexeme, line, col);
}
+
+ // 定义状态枚举
+ private enum State {
+ START, // 初始状态
+ OPERATOR, // 当前字符是运算符的一部分
+ UNKNOWN // 无法识别的状态
+ }
}
diff --git a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/StringTokenScanner.java b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/StringTokenScanner.java
index a8643e4..a610d06 100644
--- a/src/main/java/org/jcnc/snow/compiler/lexer/scanners/StringTokenScanner.java
+++ b/src/main/java/org/jcnc/snow/compiler/lexer/scanners/StringTokenScanner.java
@@ -29,7 +29,7 @@ public class StringTokenScanner extends AbstractTokenScanner {
*/
@Override
public boolean canHandle(char c, LexerContext ctx) {
- return c == '"';
+ return c == '"'; // 只处理字符串开始符号
}
/**
@@ -45,19 +45,51 @@ public class StringTokenScanner extends AbstractTokenScanner {
@Override
protected Token scanToken(LexerContext ctx, int line, int col) {
StringBuilder sb = new StringBuilder();
- sb.append(ctx.advance()); // 起始双引号
+ // 当前状态
+ State currentState = State.START; // 初始状态为开始扫描字符串
+ // 开始扫描字符串
while (!ctx.isAtEnd()) {
char c = ctx.advance();
sb.append(c);
- if (c == '\\') {
- sb.append(ctx.advance()); // 添加转义字符后的实际字符
- } else if (c == '"') {
- break;
+ switch (currentState) {
+ case START:
+ // 开始状态,遇到第一个双引号
+ currentState = State.STRING;
+ break;
+
+ case STRING:
+ if (c == '\\') {
+ // 遇到转义字符,进入 ESCAPE 状态
+ currentState = State.ESCAPE;
+ } else if (c == '"') {
+ // 遇到结束的双引号,结束扫描
+ currentState = State.END;
+ }
+ break;
+
+ case ESCAPE:
+ // 在转义状态下,处理转义字符
+ sb.append(ctx.advance()); // 加入转义字符后的字符
+ currentState = State.STRING; // 返回字符串状态
+ break;
+
+ case END:
+ // 结束状态,字符串扫描完成
+ return new Token(TokenType.STRING_LITERAL, sb.toString(), line, col);
}
}
+ // 如果没有结束的双引号,则表示错误,或者未正确处理
return new Token(TokenType.STRING_LITERAL, sb.toString(), line, col);
}
+
+ // 定义状态枚举
+ private enum State {
+ START, // 开始状态,寻找字符串的开始双引号
+ STRING, // 字符串扫描状态,处理字符串中的字符
+ ESCAPE, // 处理转义字符状态
+ END // 字符串结束状态
+ }
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/ast/BoolLiteralNode.java b/src/main/java/org/jcnc/snow/compiler/parser/ast/BoolLiteralNode.java
index 15c7088..bb46a30 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/ast/BoolLiteralNode.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/ast/BoolLiteralNode.java
@@ -9,9 +9,17 @@ import org.jcnc.snow.compiler.parser.ast.base.ExpressionNode;
* 表达布尔类型的字面量常量(如 "true" 或 "false")。
*
*
- * @param value 字面量的布尔值
+ * @param value 字面量的布尔值
+ * @param line 当前节点所在的行号
+ * @param column 当前节点所在的列号
+ * @param file 当前节点所在的文件
*/
-public record BoolLiteralNode(boolean value) implements ExpressionNode {
+public record BoolLiteralNode(
+ boolean value,
+ int line,
+ int column,
+ String file
+) implements ExpressionNode {
/**
* 使用布尔字面量字符串构造一个 {@code BoolLiteralNode} 实例。
@@ -22,8 +30,8 @@ public record BoolLiteralNode(boolean value) implements ExpressionNode {
*
* @param lexeme 布尔字面量的字符串表示
*/
- public BoolLiteralNode(String lexeme) {
- this(Boolean.parseBoolean(lexeme));
+ public BoolLiteralNode(String lexeme, int line, int column, String file) {
+ this(Boolean.parseBoolean(lexeme), line, column, file);
}
/**
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/ast/CallExpressionNode.java b/src/main/java/org/jcnc/snow/compiler/parser/ast/CallExpressionNode.java
index 22f47bc..d7dbce9 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/ast/CallExpressionNode.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/ast/CallExpressionNode.java
@@ -67,5 +67,7 @@ public record CallExpressionNode(
*
* @return 当前表达式所在的文件名。
*/
- public String file() { return file; }
+ public String file() {
+ return file;
+ }
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/ast/NumberLiteralNode.java b/src/main/java/org/jcnc/snow/compiler/parser/ast/NumberLiteralNode.java
index f30f526..9f253e2 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/ast/NumberLiteralNode.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/ast/NumberLiteralNode.java
@@ -10,9 +10,17 @@ import org.jcnc.snow.compiler.parser.ast.base.ExpressionNode;
* 在语义分析或类型推导阶段再行解析为具体数值类型。
*
*
- * @param value 数字字面量的原始字符串表示
+ * @param value 数字字面量的原始字符串表示
+ * @param line 当前节点所在的行号
+ * @param column 当前节点所在的列号
+ * @param file 当前节点所在的文件
*/
-public record NumberLiteralNode(String value) implements ExpressionNode {
+public record NumberLiteralNode(
+ String value,
+ int line,
+ int column,
+ String file
+) implements ExpressionNode {
/**
* 返回数字字面量的字符串形式。
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/ast/StringLiteralNode.java b/src/main/java/org/jcnc/snow/compiler/parser/ast/StringLiteralNode.java
index b04d561..daa9f42 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/ast/StringLiteralNode.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/ast/StringLiteralNode.java
@@ -9,9 +9,17 @@ import org.jcnc.snow.compiler.parser.ast.base.ExpressionNode;
* 节点内部仅保存不带引号的字符串内容,便于后续语义处理或编码。
*
*
- * @param value 字符串常量的内容,原始值中不包含双引号
+ * @param value 字符串常量的内容,原始值中不包含双引号
+ * @param line 当前节点所在的行号
+ * @param column 当前节点所在的列号
+ * @param file 当前节点所在的文件
*/
-public record StringLiteralNode(String value) implements ExpressionNode {
+public record StringLiteralNode(
+ String value,
+ int line,
+ int column,
+ String file
+) implements ExpressionNode {
/**
* 返回字符串字面量的带引号表示,适用于语法树调试或文本输出。
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/ast/base/Node.java b/src/main/java/org/jcnc/snow/compiler/parser/ast/base/Node.java
index 8c7a8b9..5cba805 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/ast/base/Node.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/ast/base/Node.java
@@ -3,7 +3,7 @@ package org.jcnc.snow.compiler.parser.ast.base;
/**
* {@code Node} 是抽象语法树(AST)中所有语法节点的统一根接口。
*
- * 作为标记接口(Marker Interface),该接口不定义任何方法,
+ * 作为标记接口(Marker Interface),该接口定义 3 个方法:line()、column() 和 file() 用于定位错误,
* 主要用于统一标识并组织 AST 体系中的各种语法构件节点,包括:
*
*
@@ -15,4 +15,25 @@ package org.jcnc.snow.compiler.parser.ast.base;
* 所有 AST 处理逻辑(如遍历、分析、代码生成)均可基于该接口实现统一调度和类型判定。
*
*/
-public interface Node {}
+public interface Node {
+ /**
+ * 获取当前表达式所在的行号。
+ *
+ * @return 当前表达式的行号。
+ */
+ int line();
+
+ /**
+ * 获取当前表达式所在的列号。
+ *
+ * @return 当前表达式的列号。
+ */
+ int column();
+
+ /**
+ * 获取当前表达式所在的文件名。
+ *
+ * @return 当前表达式所在的文件名。
+ */
+ String file();
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/MissingToken.java b/src/main/java/org/jcnc/snow/compiler/parser/context/MissingToken.java
new file mode 100644
index 0000000..3610426
--- /dev/null
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/MissingToken.java
@@ -0,0 +1,22 @@
+package org.jcnc.snow.compiler.parser.context;
+
+/**
+ * 表示在语法分析过程中,必须出现的 Token 缺失时抛出的异常。
+ *
+ * 当分析器检测到输入流中缺少某个预期 Token 时,会抛出此异常,以便准确地指明语法错误位置。
+ * 该异常包含了缺失 Token 的名称以及发生缺失的位置(行号和列号),便于错误定位和后续处理。
+ *
+ */
+public final class MissingToken extends ParseException {
+
+ /**
+ * 构造一个表示缺失 Token 的异常。
+ *
+ * @param expected 预期但未出现的 Token 名称
+ * @param line 发生异常的行号
+ * @param column 发生异常的列号
+ */
+ public MissingToken(String expected, int line, int column) {
+ super("缺失 Token: " + expected, line, column);
+ }
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/ParseError.java b/src/main/java/org/jcnc/snow/compiler/parser/context/ParseError.java
new file mode 100644
index 0000000..24c1d27
--- /dev/null
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/ParseError.java
@@ -0,0 +1,45 @@
+package org.jcnc.snow.compiler.parser.context;
+
+/**
+ * 语法错误的数据传输对象(DTO)。
+ *
+ * 用于收集和展示语法分析过程中检测到的错误信息,便于错误定位和报告。
+ * 包含出错文件、行号、列号和具体错误信息等字段。
+ *
+ */
+public class ParseError {
+
+ /** 出错的文件名 */
+ private final String file;
+ /** 出错的行号 */
+ private final int line;
+ /** 出错的列号 */
+ private final int column;
+ /** 错误信息描述 */
+ private final String message;
+
+ /**
+ * 构造一个语法错误数据对象。
+ *
+ * @param file 出错文件名
+ * @param line 出错行号
+ * @param column 出错列号
+ * @param message 错误信息描述
+ */
+ public ParseError(String file, int line, int column, String message) {
+ this.file = file;
+ this.line = line;
+ this.column = column;
+ this.message = message;
+ }
+
+ /**
+ * 返回该错误对象的字符串表示。
+ *
+ * @return 格式化后的错误描述字符串
+ */
+ @Override
+ public String toString() {
+ return file + ": 行 " + line + ", 列 " + column + ": " + message;
+ }
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/ParseException.java b/src/main/java/org/jcnc/snow/compiler/parser/context/ParseException.java
index 0313d7a..97ceb33 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/context/ParseException.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/ParseException.java
@@ -1,24 +1,75 @@
package org.jcnc.snow.compiler.parser.context;
/**
- * {@code ParseException} 表示语法分析阶段发生的错误。
+ * 语法分析阶段所有错误的基类。
*
- * 当语法分析器遇到非法的语法结构或无法继续处理的标记序列时,
- * 应抛出该异常以中断当前解析流程,并向调用方报告错误信息。
+ * 本异常作为语法分析相关错误的统一父类,屏蔽了堆栈信息,确保在命令行界面(CLI)输出时只占用一行,方便用户快速定位问题。
+ * 通过 {@code permits} 关键字,限定了可被继承的异常类型,增强类型安全性。
*
+ *
*
- * 该异常通常由 {@code ParserContext} 或各类语法规则处理器主动抛出,
- * 用于提示编译器前端或 IDE 系统进行错误提示与恢复。
+ * 该异常携带错误发生的行号、列号和具体原因信息,用于语法错误的精确报告和输出展示。
*
*/
-public class ParseException extends RuntimeException {
+public sealed class ParseException extends RuntimeException
+ permits MissingToken, UnexpectedToken, UnsupportedFeature {
+
+ /** 出错行号(从 1 开始) */
+ private final int line;
+ /** 出错列号(从 1 开始) */
+ private final int column;
+ /** 错误原因描述 */
+ private final String reason;
/**
- * 构造一个带有错误描述信息的解析异常实例。
+ * 构造语法分析异常。
*
- * @param message 错误描述文本,用于指明具体的语法错误原因
+ * @param reason 错误原因描述
+ * @param line 出错行号(从 1 开始)
+ * @param column 出错列号(从 1 开始)
*/
- public ParseException(String message) {
- super(message);
+ public ParseException(String reason, int line, int column) {
+ // 禁用 cause / suppression / stackTrace,确保 CLI 输出简洁
+ super(reason, null, false, false);
+ this.reason = reason;
+ this.line = line;
+ this.column = column;
+ }
+
+ /**
+ * 禁用堆栈信息的生成,保证异常始终为单行输出。
+ *
+ * @return 当前异常对象自身
+ */
+ @Override
+ public synchronized Throwable fillInStackTrace() {
+ return this;
+ }
+
+ /**
+ * 获取出错行号(从 1 开始)。
+ *
+ * @return 行号
+ */
+ public int getLine() {
+ return line;
+ }
+
+ /**
+ * 获取出错列号(从 1 开始)。
+ *
+ * @return 列号
+ */
+ public int getColumn() {
+ return column;
+ }
+
+ /**
+ * 获取错误原因描述。
+ *
+ * @return 错误原因
+ */
+ public String getReason() {
+ return reason;
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/ParserContext.java b/src/main/java/org/jcnc/snow/compiler/parser/context/ParserContext.java
index 5ff228a..b9c9852 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/context/ParserContext.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/ParserContext.java
@@ -15,10 +15,14 @@ import java.util.List;
*/
public class ParserContext {
- /** 当前语法分析所使用的 Token 流 */
+ /**
+ * 当前语法分析所使用的 Token 流
+ */
private final TokenStream tokens;
- /** 当前语法分析所使用的资源文件名 */
+ /**
+ * 当前语法分析所使用的资源文件名
+ */
private final String sourceName;
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/TokenStream.java b/src/main/java/org/jcnc/snow/compiler/parser/context/TokenStream.java
index 5841b7b..07a4ffb 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/context/TokenStream.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/TokenStream.java
@@ -6,37 +6,49 @@ import org.jcnc.snow.compiler.lexer.token.TokenType;
import java.util.List;
/**
- * {@code TokenStream} 封装了一个 Token 列表并维护当前解析位置,
- * 是语法分析器读取词法单元的核心工具类。
+ * {@code TokenStream} 封装了 Token 序列并维护当前解析位置,是语法分析器读取词法单元的核心工具类。
*
- * 提供前瞻(peek)、消费(next)、匹配(match)、断言(expect)等常用操作,
- * 支持前向查看和异常处理,适用于递归下降解析等常见语法构建策略。
+ * 该类提供前瞻(peek)、消费(next)、匹配(match)、断言(expect)等常用操作,
+ * 支持前向查看和异常处理,适用于递归下降等常见语法解析策略。
+ * 设计上自动跳过注释(COMMENT)token,并对越界情况提供自动构造的 EOF(文件结束)token,
+ * 有效提升语法处理的健壮性与易用性。
*
*/
public class TokenStream {
- /** 源 Token 列表 */
+ /**
+ * 源 Token 列表
+ */
private final List tokens;
-
- /** 当前解析位置索引 */
+ /**
+ * 当前解析位置索引
+ */
private int pos = 0;
/**
* 使用 Token 列表构造 TokenStream。
*
- * @param tokens 由词法分析器产生的 Token 集合
+ * @param tokens 词法分析器输出的 Token 集合
+ * @throws NullPointerException 如果 tokens 为 null
*/
public TokenStream(List tokens) {
+ if (tokens == null) {
+ throw new NullPointerException("Token 列表不能为空");
+ }
this.tokens = tokens;
}
/**
- * 向前查看指定偏移量处的 Token(不移动位置)。
+ * 向前查看指定偏移量处的 Token(不移动当前位置)。
+ * 在 {@code offset == 0} 时自动跳过所有连续的注释(COMMENT)token。
*
- * @param offset 相对当前位置的偏移量(0 表示当前)
+ * @param offset 相对当前位置的偏移量(0 表示当前位置 token)
* @return 指定位置的 Token;若越界则返回自动构造的 EOF Token
*/
public Token peek(int offset) {
+ if (offset == 0) {
+ skipTrivia();
+ }
int idx = pos + offset;
if (idx >= tokens.size()) {
return Token.eof(tokens.size() + 1);
@@ -45,30 +57,32 @@ public class TokenStream {
}
/**
- * 查看当前位置的 Token,等效于 {@code peek(0)}。
+ * 查看当前位置的有效 Token(已跳过注释)。
*
- * @return 当前 Token
+ * @return 当前 Token,等效于 {@code peek(0)}
*/
public Token peek() {
+ skipTrivia();
return peek(0);
}
/**
- * 消费当前位置的 Token 并返回,位置前移。
+ * 消费当前位置的有效 Token 并前移指针,自动跳过注释 token。
*
- * @return 当前 Token
+ * @return 被消费的有效 Token
*/
public Token next() {
Token t = peek();
pos++;
+ skipTrivia();
return t;
}
/**
- * 匹配当前 Token 的词素与指定字符串,若匹配则消费。
+ * 若当前 Token 的词素等于指定字符串,则消费该 Token 并前移,否则不变。
*
- * @param lexeme 待匹配词素
- * @return 若成功匹配则返回 true
+ * @param lexeme 目标词素字符串
+ * @return 匹配成功返回 true,否则返回 false
*/
public boolean match(String lexeme) {
if (peek().getLexeme().equals(lexeme)) {
@@ -79,49 +93,60 @@ public class TokenStream {
}
/**
- * 断言当前 Token 的词素与指定值相符,否则抛出 {@link ParseException}。
+ * 断言当前位置 Token 的词素等于指定值,否则抛出 {@link ParseException}。
+ * 匹配成功时消费该 Token 并前移。
*
- * @param lexeme 期望的词素值
+ * @param lexeme 期望的词素字符串
* @return 匹配成功的 Token
- * @throws ParseException 若词素不符
+ * @throws ParseException 若词素不匹配
*/
public Token expect(String lexeme) {
Token t = peek();
if (!t.getLexeme().equals(lexeme)) {
throw new ParseException(
- "Expected lexeme '" + lexeme + "' but got '" + t.getLexeme() +
- "' at " + t.getLine() + ":" + t.getCol()
+ "期望的词素是 '" + lexeme + "',但得到的是 '" + t.getLexeme() + "'",
+ t.getLine(), t.getCol()
);
}
return next();
}
/**
- * 断言当前 Token 类型为指定类型,否则抛出 {@link ParseException}。
+ * 断言当前位置 Token 类型为指定类型,否则抛出 {@link ParseException}。
+ * 匹配成功时消费该 Token 并前移。
*
* @param type 期望的 Token 类型
* @return 匹配成功的 Token
- * @throws ParseException 若类型不匹配
+ * @throws ParseException 若类型不符
*/
public Token expectType(TokenType type) {
Token t = peek();
if (t.getType() != type) {
throw new ParseException(
- "Expected token type " + type + " but got " + t.getType() +
- " ('" + t.getLexeme() + "') at " + t.getLine() + ":" + t.getCol()
+ "期望的标记类型为 " + type + ",但实际得到的是 " + t.getType() +
+ " ('" + t.getLexeme() + "')",
+ t.getLine(), t.getCol()
);
}
return next();
}
/**
- * 判断是否“已经”到达 EOF。
+ * 判断是否已到达文件末尾(EOF)。
*
- * @return 若当前位置 Token 为 EOF,则返回 true,否则 false
+ * @return 若当前位置 Token 为 EOF,则返回 true;否则返回 false
*/
public boolean isAtEnd() {
- return peek().getType() != TokenType.EOF;
+ return peek().getType() == TokenType.EOF;
}
-
-}
\ No newline at end of file
+ /**
+ * 跳过所有连续的注释(COMMENT)token,使解析器总是定位在第一个有效 Token 上。
+ */
+ private void skipTrivia() {
+ while (pos < tokens.size()
+ && tokens.get(pos).getType() == TokenType.COMMENT) {
+ pos++;
+ }
+ }
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/UnexpectedToken.java b/src/main/java/org/jcnc/snow/compiler/parser/context/UnexpectedToken.java
new file mode 100644
index 0000000..ebaaef7
--- /dev/null
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/UnexpectedToken.java
@@ -0,0 +1,21 @@
+package org.jcnc.snow.compiler.parser.context;
+
+/**
+ * 表示在语法分析过程中遇到意料之外或无法识别的 Token 时抛出的异常。
+ *
+ * 当分析器检测到实际遇到的 Token 不符合语法规则,或与预期类型不符时会抛出本异常,便于错误定位和报告。
+ *
+ */
+public final class UnexpectedToken extends ParseException {
+
+ /**
+ * 构造一个“意外的 Token”异常。
+ *
+ * @param actual 实际遇到的 Token 描述
+ * @param line 发生异常的行号
+ * @param column 发生异常的列号
+ */
+ public UnexpectedToken(String actual, int line, int column) {
+ super("意外的 Token: " + actual, line, column);
+ }
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/context/UnsupportedFeature.java b/src/main/java/org/jcnc/snow/compiler/parser/context/UnsupportedFeature.java
new file mode 100644
index 0000000..a1288bb
--- /dev/null
+++ b/src/main/java/org/jcnc/snow/compiler/parser/context/UnsupportedFeature.java
@@ -0,0 +1,21 @@
+package org.jcnc.snow.compiler.parser.context;
+
+/**
+ * 表示在语法分析过程中使用了尚未支持的语法或语言特性时抛出的异常。
+ *
+ * 当用户使用了当前编译器实现尚不支持的语法、关键字或特性时,语法分析器将抛出此异常,用于清晰提示和错误报告。
+ *
+ */
+public final class UnsupportedFeature extends ParseException {
+
+ /**
+ * 构造一个“暂未支持的语法/特性”异常。
+ *
+ * @param feature 未被支持的语法或特性描述
+ * @param line 发生异常的行号
+ * @param column 发生异常的列号
+ */
+ public UnsupportedFeature(String feature, int line, int column) {
+ super("暂未支持的语法/特性: " + feature, line, column);
+ }
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/core/ParserEngine.java b/src/main/java/org/jcnc/snow/compiler/parser/core/ParserEngine.java
index 7d0854f..93f3547 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/core/ParserEngine.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/core/ParserEngine.java
@@ -1,23 +1,47 @@
package org.jcnc.snow.compiler.parser.core;
import org.jcnc.snow.compiler.lexer.token.TokenType;
-import org.jcnc.snow.compiler.parser.base.TopLevelParser;
-import org.jcnc.snow.compiler.parser.context.ParserContext;
-import org.jcnc.snow.compiler.parser.context.TokenStream;
-import org.jcnc.snow.compiler.parser.factory.TopLevelParserFactory;
import org.jcnc.snow.compiler.parser.ast.base.Node;
+import org.jcnc.snow.compiler.parser.base.TopLevelParser;
+import org.jcnc.snow.compiler.parser.context.*;
+import org.jcnc.snow.compiler.parser.factory.TopLevelParserFactory;
import java.util.ArrayList;
import java.util.List;
+import java.util.StringJoiner;
+/**
+ * 语法解析引擎(ParserEngine)。
+ *
+ * 负责驱动顶层语法解析,并统一处理、收集所有语法异常,防止死循环,确保整体解析流程的健壮性与鲁棒性。
+ * 支持基于同步点的错误恢复,适用于命令式和脚本式语法环境。
+ *
+ *
+ *
+ * 本引擎以异常收集为核心设计,所有捕获到的 {@link ParseException} 会被聚合,在分析结束后一次性统一抛出。
+ * 同时,在解析出错时会通过同步(synchronize)机制,跳过错误片段以恢复到有效解析点,避免因指针停滞导致的死循环。
+ *
+ */
public record ParserEngine(ParserContext ctx) {
+ /**
+ * 解析整个 TokenStream,返回顶层 AST 节点列表。
+ *
+ * 过程中如遇语法异常,均会被收集并在最后聚合抛出,避免单点失败导致整个解析中断。
+ *
+ *
+ * @return 解析所得的顶层 AST 节点列表
+ * @throws UnexpectedToken 当存在语法错误时,统一抛出聚合异常
+ */
public List parse() {
List nodes = new ArrayList<>();
- List errs = new ArrayList<>();
- TokenStream ts = ctx.getTokens();
+ List errs = new ArrayList<>();
- while (ts.isAtEnd()) {
+ TokenStream ts = ctx.getTokens();
+ String file = ctx.getSourceName();
+
+ // 主循环至 EOF
+ while (!ts.isAtEnd()) {
// 跳过空行
if (ts.peek().getType() == TokenType.NEWLINE) {
ts.next();
@@ -25,39 +49,48 @@ public record ParserEngine(ParserContext ctx) {
}
TopLevelParser parser = TopLevelParserFactory.get(ts.peek().getLexeme());
-
try {
nodes.add(parser.parse(ctx));
- } catch (Exception ex) {
- errs.add(ex.getMessage());
- synchronize(ts); // 错误恢复
+ } catch (ParseException ex) {
+ // 收集错误并尝试同步
+ errs.add(new ParseError(file, ex.getLine(), ex.getColumn(), ex.getReason()));
+ synchronize(ts);
}
}
+ /* ───── 统一抛出聚合异常 ───── */
if (!errs.isEmpty()) {
- throw new IllegalStateException("解析过程中检测到 "
- + errs.size() + " 处错误:\n - "
- + String.join("\n - ", errs));
+ StringJoiner sj = new StringJoiner("\n - ", "", "");
+ errs.forEach(e -> sj.add(e.toString()));
+
+ String msg = "解析过程中检测到 " + errs.size() + " 处错误:\n - " + sj;
+ throw new UnexpectedToken(msg, 0, 0);
}
return nodes;
}
/**
- * 错误同步:跳到下一行或下一个已注册顶层关键字
+ * 同步:跳过当前行或直到遇到显式注册的顶层关键字。
+ *
+ * 该机制用于语法出错后恢复到下一个可能的有效解析点,防止指针停滞导致死循环或重复抛错。
+ * 同步过程中会优先跳过本行所有未识别 token,并在遇到换行或注册关键字时停止,随后跳过连续空行。
+ *
+ *
+ * @param ts 词法 token 流
*/
private void synchronize(TokenStream ts) {
- while (ts.isAtEnd()) {
+ while (!ts.isAtEnd()) {
if (ts.peek().getType() == TokenType.NEWLINE) {
ts.next();
break;
}
- if (TopLevelParserFactory.get(ts.peek().getLexeme()) != null) {
- break;
+ if (TopLevelParserFactory.isRegistered(ts.peek().getLexeme())) {
+ break; // 仅在已注册关键字处停下
}
- ts.next();
+ ts.next(); // 继续丢弃 token
}
- // 连续空行全部吃掉
- while (ts.isAtEnd() && ts.peek().getType() == TokenType.NEWLINE) {
+ // 清理后续连续空行
+ while (!ts.isAtEnd() && ts.peek().getType() == TokenType.NEWLINE) {
ts.next();
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/expression/BoolLiteralParselet.java b/src/main/java/org/jcnc/snow/compiler/parser/expression/BoolLiteralParselet.java
index cb2ede5..cfd49db 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/expression/BoolLiteralParselet.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/expression/BoolLiteralParselet.java
@@ -28,6 +28,6 @@ public class BoolLiteralParselet implements PrefixParselet {
*/
@Override
public ExpressionNode parse(ParserContext ctx, Token token) {
- return new BoolLiteralNode(token.getLexeme());
+ return new BoolLiteralNode(token.getLexeme(), token.getLine(), token.getCol(), ctx.getSourceName());
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/expression/NumberLiteralParselet.java b/src/main/java/org/jcnc/snow/compiler/parser/expression/NumberLiteralParselet.java
index 6ea186f..4b75174 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/expression/NumberLiteralParselet.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/expression/NumberLiteralParselet.java
@@ -24,6 +24,6 @@ public class NumberLiteralParselet implements PrefixParselet {
*/
@Override
public ExpressionNode parse(ParserContext ctx, Token token) {
- return new NumberLiteralNode(token.getLexeme());
+ return new NumberLiteralNode(token.getLexeme(), token.getLine(), token.getCol(), ctx.getSourceName());
}
}
\ No newline at end of file
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/expression/PrattExpressionParser.java b/src/main/java/org/jcnc/snow/compiler/parser/expression/PrattExpressionParser.java
index 4f79274..df2ee36 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/expression/PrattExpressionParser.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/expression/PrattExpressionParser.java
@@ -4,6 +4,7 @@ import org.jcnc.snow.compiler.lexer.token.Token;
import org.jcnc.snow.compiler.lexer.token.TokenType;
import org.jcnc.snow.compiler.parser.ast.base.ExpressionNode;
import org.jcnc.snow.compiler.parser.context.ParserContext;
+import org.jcnc.snow.compiler.parser.context.UnsupportedFeature;
import org.jcnc.snow.compiler.parser.expression.base.ExpressionParser;
import org.jcnc.snow.compiler.parser.expression.base.InfixParselet;
import org.jcnc.snow.compiler.parser.expression.base.PrefixParselet;
@@ -12,64 +13,57 @@ import java.util.HashMap;
import java.util.Map;
/**
- * {@code PrattExpressionParser} 是基于 Pratt 算法实现的表达式解析器。
+ * {@code PrattExpressionParser} 基于 Pratt 算法的表达式解析器实现。
*
- * 它支持灵活的运算符优先级控制,结合前缀(PrefixParselet)和中缀(InfixParselet)解析器,
- * 可高效解析复杂表达式结构,包括:
- *
- * - 字面量(数字、字符串)
- * - 标识符
- * - 函数调用、成员访问
- * - 带括号的表达式、二元运算符
- *
- * 本类提供统一注册机制和递归表达式解析入口。
+ * 该类通过前缀(PrefixParselet)和中缀(InfixParselet)解析器注册表,
+ * 支持灵活扩展的表达式语法,包括字面量、变量、函数调用、成员访问和各种运算符表达式。
+ *
+ *
+ * 运算符优先级通过枚举控制,结合递归解析实现高效的优先级处理和语法结构解析。
+ * 未注册的语法类型或运算符会统一抛出 {@link UnsupportedFeature} 异常。
*
*/
public class PrattExpressionParser implements ExpressionParser {
- /**
- * 前缀解析器注册表:按 Token 类型映射
- */
+ /** 前缀解析器注册表(按 Token 类型名索引) */
private static final Map prefixes = new HashMap<>();
-
- /**
- * 中缀解析器注册表:按运算符词素映射
- */
+ /** 中缀解析器注册表(按运算符词素索引) */
private static final Map infixes = new HashMap<>();
static {
- // 注册前缀解析器
- prefixes.put(TokenType.NUMBER_LITERAL.name(), new NumberLiteralParselet());
- prefixes.put(TokenType.IDENTIFIER.name(), new IdentifierParselet());
- prefixes.put(TokenType.LPAREN.name(), new GroupingParselet());
- prefixes.put(TokenType.STRING_LITERAL.name(), new StringLiteralParselet());
- prefixes.put(TokenType.BOOL_LITERAL.name(), new BoolLiteralParselet());
+ // 前缀解析器注册
+ prefixes.put(TokenType.NUMBER_LITERAL.name(), new NumberLiteralParselet());
+ prefixes.put(TokenType.IDENTIFIER.name(), new IdentifierParselet());
+ prefixes.put(TokenType.LPAREN.name(), new GroupingParselet());
+ prefixes.put(TokenType.STRING_LITERAL.name(), new StringLiteralParselet());
+ prefixes.put(TokenType.BOOL_LITERAL.name(), new BoolLiteralParselet());
- // 注册一元前缀运算
+ // 一元前缀运算符
prefixes.put(TokenType.MINUS.name(), new UnaryOperatorParselet());
- prefixes.put(TokenType.NOT.name(), new UnaryOperatorParselet());
+ prefixes.put(TokenType.NOT.name(), new UnaryOperatorParselet());
- // 注册中缀解析器
- infixes.put("+", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("-", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("*", new BinaryOperatorParselet(Precedence.PRODUCT, true));
- infixes.put("/", new BinaryOperatorParselet(Precedence.PRODUCT, true));
- infixes.put("%", new BinaryOperatorParselet(Precedence.PRODUCT, true));
- infixes.put(">", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("<", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("==", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("!=", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put(">=", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("<=", new BinaryOperatorParselet(Precedence.SUM, true));
- infixes.put("(", new CallParselet());
- infixes.put(".", new MemberParselet());
+ // 中缀解析器注册
+ infixes.put("+", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("-", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("*", new BinaryOperatorParselet(Precedence.PRODUCT, true));
+ infixes.put("/", new BinaryOperatorParselet(Precedence.PRODUCT, true));
+ infixes.put("%", new BinaryOperatorParselet(Precedence.PRODUCT, true));
+ infixes.put(">", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("<", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("==", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("!=", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put(">=", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("<=", new BinaryOperatorParselet(Precedence.SUM, true));
+ infixes.put("(", new CallParselet());
+ infixes.put(".", new MemberParselet());
}
/**
- * 表达式解析入口,使用最低优先级启动递归解析。
+ * 表达式解析统一入口。
+ * 以最低优先级启动递归下降,适配任意表达式复杂度。
*
- * @param ctx 当前语法解析上下文
- * @return 表达式抽象语法树节点
+ * @param ctx 当前解析上下文
+ * @return 解析后的表达式 AST 节点
*/
@Override
public ExpressionNode parse(ParserContext ctx) {
@@ -77,36 +71,52 @@ public class PrattExpressionParser implements ExpressionParser {
}
/**
- * 根据指定优先级解析表达式。
+ * 按指定优先级解析表达式。Pratt 算法主循环。
+ *
+ * 先根据当前 Token 类型查找前缀解析器进行初始解析,
+ * 然后根据优先级不断递归处理中缀运算符和右侧表达式。
+ *
*
- * @param ctx 当前上下文
- * @param prec 当前优先级阈值
+ * @param ctx 解析上下文
+ * @param prec 当前运算符优先级阈值
* @return 构建完成的表达式节点
+ * @throws UnsupportedFeature 若遇到未注册的前缀或中缀解析器
*/
ExpressionNode parseExpression(ParserContext ctx, Precedence prec) {
Token token = ctx.getTokens().next();
PrefixParselet prefix = prefixes.get(token.getType().name());
if (prefix == null) {
- throw new IllegalStateException("没有为该 Token 类型注册前缀解析器: " + token.getType());
+ throw new UnsupportedFeature(
+ "没有为该 Token 类型注册前缀解析器: " + token.getType(),
+ token.getLine(),
+ token.getCol()
+ );
}
ExpressionNode left = prefix.parse(ctx, token);
- while (ctx.getTokens().isAtEnd()
+ while (!ctx.getTokens().isAtEnd()
&& prec.ordinal() < nextPrecedence(ctx)) {
String lex = ctx.getTokens().peek().getLexeme();
InfixParselet infix = infixes.get(lex);
- if (infix == null) break;
+ if (infix == null) {
+ Token t = ctx.getTokens().peek();
+ throw new UnsupportedFeature(
+ "没有为该运算符注册中缀解析器: '" + lex + "'",
+ t.getLine(),
+ t.getCol()
+ );
+ }
left = infix.parse(ctx, left);
}
return left;
}
/**
- * 获取下一个中缀解析器的优先级,用于判断是否继续解析。
+ * 获取下一个中缀解析器的优先级(Pratt 算法核心)。
*
- * @param ctx 当前上下文
- * @return 优先级枚举 ordinal 值;若无解析器则为 -1
+ * @param ctx 当前解析上下文
+ * @return 下一个中缀运算符的优先级序号;若无解析器则为 -1
*/
private int nextPrecedence(ParserContext ctx) {
InfixParselet infix = infixes.get(ctx.getTokens().peek().getLexeme());
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/expression/StringLiteralParselet.java b/src/main/java/org/jcnc/snow/compiler/parser/expression/StringLiteralParselet.java
index b73603d..b4eb3b3 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/expression/StringLiteralParselet.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/expression/StringLiteralParselet.java
@@ -27,6 +27,6 @@ public class StringLiteralParselet implements PrefixParselet {
public ExpressionNode parse(ParserContext ctx, Token token) {
String raw = token.getRaw();
String content = raw.substring(1, raw.length() - 1);
- return new StringLiteralNode(content);
+ return new StringLiteralNode(content, token.getLine(), token.getCol(), ctx.getSourceName());
}
}
\ No newline at end of file
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/factory/TopLevelParserFactory.java b/src/main/java/org/jcnc/snow/compiler/parser/factory/TopLevelParserFactory.java
index 7fa779c..82c486f 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/factory/TopLevelParserFactory.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/factory/TopLevelParserFactory.java
@@ -8,22 +8,38 @@ import org.jcnc.snow.compiler.parser.top.ScriptTopLevelParser;
import java.util.Map;
import java.util.HashMap;
+/**
+ * {@code TopLevelParserFactory} 用于根据源码中顶层关键字取得对应的解析器。
+ *
+ * 若关键字未注册,则回退到脚本模式解析器 {@link ScriptTopLevelParser}。
+ */
public class TopLevelParserFactory {
+ /** 关键字 → 解析器注册表 */
private static final Map registry = new HashMap<>();
- private static final TopLevelParser DEFAULT = new ScriptTopLevelParser(); // ← 默认解析器
+
+ /** 缺省解析器:脚本模式(单条语句可执行) */
+ private static final TopLevelParser DEFAULT = new ScriptTopLevelParser();
static {
- // 顶层结构解析器
+ // 在此注册所有受支持的顶层结构关键字
registry.put("module", new ModuleParser());
registry.put("function", new FunctionParser());
- // 也可按需继续注册其它关键字
+ // 若未来新增顶层结构,可继续在此处注册
}
/**
- * 根据关键字获取解析器;若未注册,回退到脚本语句解析。
+ * 依据关键字返回解析器;若未注册则返回脚本解析器。
*/
public static TopLevelParser get(String keyword) {
return registry.getOrDefault(keyword, DEFAULT);
}
+
+ /**
+ * 判断某关键字是否已显式注册为顶层结构,
+ * 供同步恢复逻辑使用,避免死循环。
+ */
+ public static boolean isRegistered(String keyword) {
+ return registry.containsKey(keyword);
+ }
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/function/ASTPrinter.java b/src/main/java/org/jcnc/snow/compiler/parser/function/ASTPrinter.java
index a45ea72..75ffbca 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/function/ASTPrinter.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/function/ASTPrinter.java
@@ -67,7 +67,7 @@ public class ASTPrinter {
}
case FunctionNode(
String name, List parameters, String returnType, List body
- , _, _, _
+ , int _, int _, String _
) -> {
System.out.println(pad + "function " + name
+ "(params=" + parameters + ", return=" + returnType + ")");
@@ -82,7 +82,7 @@ public class ASTPrinter {
.orElse("");
System.out.println(pad + "declare " + d.getName() + ":" + d.getType() + init);
}
- case AssignmentNode(String variable, ExpressionNode value, _, int _, String _) ->
+ case AssignmentNode(String variable, ExpressionNode value, int _, int _, String _) ->
System.out.println(pad + variable + " = " + value);
case IfNode(
ExpressionNode condition, List thenBranch, List elseBranch, int _,
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/module/ModuleParser.java b/src/main/java/org/jcnc/snow/compiler/parser/module/ModuleParser.java
index ac9e05d..8a21e70 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/module/ModuleParser.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/module/ModuleParser.java
@@ -1,100 +1,98 @@
package org.jcnc.snow.compiler.parser.module;
import org.jcnc.snow.compiler.lexer.token.TokenType;
+import org.jcnc.snow.compiler.parser.ast.FunctionNode;
+import org.jcnc.snow.compiler.parser.ast.ImportNode;
+import org.jcnc.snow.compiler.parser.ast.ModuleNode;
import org.jcnc.snow.compiler.parser.base.TopLevelParser;
import org.jcnc.snow.compiler.parser.context.ParserContext;
import org.jcnc.snow.compiler.parser.context.TokenStream;
-import org.jcnc.snow.compiler.parser.ast.ImportNode;
-import org.jcnc.snow.compiler.parser.ast.ModuleNode;
-import org.jcnc.snow.compiler.parser.ast.FunctionNode;
+import org.jcnc.snow.compiler.parser.context.UnexpectedToken;
import org.jcnc.snow.compiler.parser.function.FunctionParser;
import java.util.ArrayList;
import java.util.List;
/**
- * {@code ModuleParser} 类负责解析源码中的模块定义结构,属于顶层结构解析器的一种。
+ * {@code ModuleParser} 负责解析源码中的模块结构,是顶层结构解析器实现之一。
*
- * 模块中可包含多个导入语句和函数定义,导入语句可在模块中任意位置出现,
- * 同时支持空行,空行将被自动忽略,不影响语法结构的正确性。
+ * 模块定义可包含多个导入(import)语句和函数定义(function),
+ * 导入语句可在模块中任意位置出现,且允许模块体中穿插任意数量的空行(空行会被自动忽略,不影响语法结构)。
+ *
+ *
+ *
+ * 典型模块语法结构:
+ *
+ * module: mymod
+ * import ...
+ * function ...
+ * ...
+ * end module
+ *
+ *
*/
public class ModuleParser implements TopLevelParser {
/**
- * 解析一个模块定义块,返回构建好的 {@link ModuleNode} 对象。
+ * 解析一个模块定义块,返回完整的 {@link ModuleNode} 语法树节点。
*
- * 本方法的语法流程包括:
+ * 解析过程包括:
*
- * - 匹配模块声明开头 {@code module: IDENTIFIER}。
- * - 收集模块体中的 import 语句与 function 定义,允许穿插空行。
- * - 模块结尾必须为 {@code end module},且后接换行符。
+ * - 匹配模块声明起始 {@code module: IDENTIFIER}。
+ * - 收集模块体内所有 import 和 function 语句,允许穿插空行。
+ * - 匹配模块结束 {@code end module}。
*
- * 所有语法错误将在解析过程中抛出异常,以便准确反馈问题位置和原因。
+ * 若遇到未识别的语句,将抛出 {@link UnexpectedToken} 异常,定位错误位置和原因。
+ *
*
- * @param ctx 当前解析器上下文,包含词法流、状态信息等。
- * @return 返回一个 {@link ModuleNode} 实例,表示完整模块的语法结构。
- * @throws IllegalStateException 当模块体中出现未识别的语句时抛出。
+ * @param ctx 当前解析上下文(包含词法流等状态)
+ * @return 解析得到的 {@link ModuleNode} 实例
+ * @throws UnexpectedToken 当模块体中出现未识别的顶层语句时抛出
*/
@Override
public ModuleNode parse(ParserContext ctx) {
- // 获取当前上下文中提供的词法流
TokenStream ts = ctx.getTokens();
- // 获取当前 token 的行号、列号和文件名
- int line = ctx.getTokens().peek().getLine();
- int column = ctx.getTokens().peek().getCol();
+ int line = ts.peek().getLine();
+ int column = ts.peek().getCol();
String file = ctx.getSourceName();
- // 期望模块声明以关键字 "module:" 开始
ts.expect("module");
ts.expect(":");
-
- // 读取模块名称(要求为标识符类型的词法单元)
String name = ts.expectType(TokenType.IDENTIFIER).getLexeme();
-
- // 模块声明必须以换行符结束
ts.expectType(TokenType.NEWLINE);
- // 初始化模块的导入节点列表与函数节点列表
List imports = new ArrayList<>();
List functions = new ArrayList<>();
- // 创建 import 与 function 的子解析器
ImportParser importParser = new ImportParser();
FunctionParser funcParser = new FunctionParser();
- // 进入模块主体内容解析循环
while (true) {
- // 跳过所有空行(即连续的 NEWLINE)
if (ts.peek().getType() == TokenType.NEWLINE) {
ts.next();
continue;
}
-
- // 若遇到 "end",则表明模块定义结束
if ("end".equals(ts.peek().getLexeme())) {
break;
}
-
- // 根据当前行首关键字决定解析器的选择
String lex = ts.peek().getLexeme();
if ("import".equals(lex)) {
- // 调用导入语句解析器,解析多个模块导入节点
imports.addAll(importParser.parse(ctx));
} else if ("function".equals(lex)) {
- // 调用函数定义解析器,解析单个函数结构
functions.add(funcParser.parse(ctx));
} else {
- // 遇到无法识别的语句开头,抛出异常并提供详细提示
- throw new IllegalStateException("Unexpected token in module: " + lex);
+ throw new UnexpectedToken(
+ "Unexpected token in module: " + lex,
+ ts.peek().getLine(),
+ ts.peek().getCol()
+ );
}
}
- // 确保模块体以 "end module" 结束
ts.expect("end");
ts.expect("module");
- // 构建并返回完整的模块语法树节点
return new ModuleNode(name, imports, functions, line, column, file);
}
-}
\ No newline at end of file
+}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/statement/ExpressionStatementParser.java b/src/main/java/org/jcnc/snow/compiler/parser/statement/ExpressionStatementParser.java
index 526dbf0..f824b6b 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/statement/ExpressionStatementParser.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/statement/ExpressionStatementParser.java
@@ -2,74 +2,66 @@ package org.jcnc.snow.compiler.parser.statement;
import org.jcnc.snow.compiler.lexer.token.TokenType;
import org.jcnc.snow.compiler.parser.ast.AssignmentNode;
-import org.jcnc.snow.compiler.parser.ast.base.ExpressionNode;
import org.jcnc.snow.compiler.parser.ast.ExpressionStatementNode;
+import org.jcnc.snow.compiler.parser.ast.base.ExpressionNode;
import org.jcnc.snow.compiler.parser.ast.base.StatementNode;
import org.jcnc.snow.compiler.parser.context.ParserContext;
import org.jcnc.snow.compiler.parser.context.TokenStream;
+import org.jcnc.snow.compiler.parser.context.UnexpectedToken;
import org.jcnc.snow.compiler.parser.expression.PrattExpressionParser;
/**
- * {@code ExpressionStatementParser} 负责解析通用表达式语句,包括赋值语句和单一表达式语句。
+ * {@code ExpressionStatementParser} 用于解析通用表达式语句(赋值或普通表达式)。
*
- * 支持的语法结构如下:
+ * 支持以下两种语法结构:
*
{@code
* x = 1 + 2 // 赋值语句
- * doSomething() // 函数调用等普通表达式语句
+ * doSomething() // 一般表达式语句
* }
*
- * - 若以标识符开头,且后接等号 {@code =},则视为赋值语句,解析为 {@link AssignmentNode}。
+ * - 以标识符开头且后接 {@code =} 时,解析为 {@link AssignmentNode}。
* - 否则视为普通表达式,解析为 {@link ExpressionStatementNode}。
- * - 所有表达式语句必须以换行符 {@code NEWLINE} 结束。
+ * - 所有表达式语句必须以换行符({@code NEWLINE})结尾。
*
- * 不允许以关键字或空行作为表达式的起始,若遇到非法开头,将抛出解析异常。
+ * 若语句起始为关键字或空行,将直接抛出异常,防止非法语法进入表达式解析流程。
*/
public class ExpressionStatementParser implements StatementParser {
/**
- * 解析一个表达式语句,根据上下文决定其为赋值或一般表达式。
- *
- * 具体逻辑如下:
- *
- * - 若当前行为标识符后接等号,则作为赋值处理。
- * - 否则解析整个表达式作为单独语句。
- * - 所有语句都必须以换行符结束。
- * - 若表达式以关键字或空行开头,将立即抛出异常,避免非法解析。
- *
+ * 解析单行表达式语句,根据上下文判断其为赋值语句或普通表达式语句。
*
- * @param ctx 当前解析上下文,提供词法流与状态信息。
- * @return 返回 {@link AssignmentNode} 或 {@link ExpressionStatementNode} 表示的语法节点。
- * @throws IllegalStateException 若表达式起始为关键字或语法非法。
+ * @param ctx 当前解析上下文,提供词法流与环境信息
+ * @return {@link AssignmentNode} 或 {@link ExpressionStatementNode} 语法节点
+ * @throws UnexpectedToken 若遇到非法起始(关键字、空行等)
*/
@Override
public StatementNode parse(ParserContext ctx) {
TokenStream ts = ctx.getTokens();
- // 快速检查:若遇空行或关键字开头,不可作为表达式语句
if (ts.peek().getType() == TokenType.NEWLINE || ts.peek().getType() == TokenType.KEYWORD) {
- throw new IllegalStateException("Cannot parse expression starting with keyword: " + ts.peek().getLexeme());
+ throw new UnexpectedToken(
+ "无法解析以关键字开头的表达式: " + ts.peek().getLexeme(),
+ ts.peek().getLine(),
+ ts.peek().getCol()
+ );
}
- // 获取当前 token 的行号、列号和文件名
- int line = ctx.getTokens().peek().getLine();
- int column = ctx.getTokens().peek().getCol();
+ int line = ts.peek().getLine();
+ int column = ts.peek().getCol();
String file = ctx.getSourceName();
- // 处理赋值语句:格式为 identifier = expression
- if (ts.peek().getType() == TokenType.IDENTIFIER
- && ts.peek(1).getLexeme().equals("=")) {
-
- String varName = ts.next().getLexeme(); // 消耗标识符
- ts.expect("="); // 消耗等号
- ExpressionNode value = new PrattExpressionParser().parse(ctx); // 解析表达式
- ts.expectType(TokenType.NEWLINE); // 语句必须以换行符结束
- return new AssignmentNode(varName, value, line, column, file); // 返回赋值节点
+ // 赋值语句:IDENTIFIER = expr
+ if (ts.peek().getType() == TokenType.IDENTIFIER && "=".equals(ts.peek(1).getLexeme())) {
+ String varName = ts.next().getLexeme();
+ ts.expect("=");
+ ExpressionNode value = new PrattExpressionParser().parse(ctx);
+ ts.expectType(TokenType.NEWLINE);
+ return new AssignmentNode(varName, value, line, column, file);
}
- // 处理普通表达式语句,如函数调用、字面量、运算表达式等
+ // 普通表达式语句
ExpressionNode expr = new PrattExpressionParser().parse(ctx);
- ts.expectType(TokenType.NEWLINE); // 语句必须以换行符结束
- return new ExpressionStatementNode(expr, line, column, file); // 返回表达式语句节点
+ ts.expectType(TokenType.NEWLINE);
+ return new ExpressionStatementNode(expr, line, column, file);
}
-
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/top/ScriptTopLevelParser.java b/src/main/java/org/jcnc/snow/compiler/parser/top/ScriptTopLevelParser.java
index f669c8e..3403dcf 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/top/ScriptTopLevelParser.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/top/ScriptTopLevelParser.java
@@ -19,7 +19,6 @@ public class ScriptTopLevelParser implements TopLevelParser {
public Node parse(ParserContext ctx) {
String first = ctx.getTokens().peek().getLexeme();
StatementParser sp = StatementParserFactory.get(first);
- StatementNode stmt = sp.parse(ctx);
- return stmt; // StatementNode 亦是 Node
+ return sp.parse(ctx);
}
}
diff --git a/src/main/java/org/jcnc/snow/compiler/parser/utils/ASTJsonSerializer.java b/src/main/java/org/jcnc/snow/compiler/parser/utils/ASTJsonSerializer.java
index db65294..231d9af 100644
--- a/src/main/java/org/jcnc/snow/compiler/parser/utils/ASTJsonSerializer.java
+++ b/src/main/java/org/jcnc/snow/compiler/parser/utils/ASTJsonSerializer.java
@@ -194,15 +194,15 @@ public class ASTJsonSerializer {
"operand", exprToMap(operand)
);
// 布尔字面量
- case BoolLiteralNode(boolean value) -> exprMap("BoolLiteral", "value", value);
+ case BoolLiteralNode(boolean value, int _, int _, String _) -> exprMap("BoolLiteral", "value", value);
// 标识符
case IdentifierNode(String name, int _, int _, String _) -> exprMap("Identifier", "name", name);
// 数字字面量
- case NumberLiteralNode(String value) -> exprMap("NumberLiteral", "value", value);
+ case NumberLiteralNode(String value, int _, int _, String _) -> exprMap("NumberLiteral", "value", value);
// 字符串字面量
- case StringLiteralNode(String value) -> exprMap("StringLiteral", "value", value);
+ case StringLiteralNode(String value, int _, int _, String _) -> exprMap("StringLiteral", "value", value);
// 调用表达式
- case CallExpressionNode(ExpressionNode callee, List arguments, _, _, _) -> {
+ case CallExpressionNode(ExpressionNode callee, List arguments, int _, int _, String _) -> {
List