Fix bugs, add propper tests
This commit is contained in:
212
old_tests/tokeniser/keywords.exp
Normal file
212
old_tests/tokeniser/keywords.exp
Normal file
@@ -0,0 +1,212 @@
|
||||
[
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 21,
|
||||
col: 5,
|
||||
},
|
||||
tt: Keyword(
|
||||
Loop,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 20,
|
||||
col: 3,
|
||||
},
|
||||
tt: Keyword(
|
||||
As,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 19,
|
||||
col: 7,
|
||||
},
|
||||
tt: Keyword(
|
||||
Return,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 18,
|
||||
col: 7,
|
||||
},
|
||||
tt: Keyword(
|
||||
Extern,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 17,
|
||||
col: 8,
|
||||
},
|
||||
tt: Keyword(
|
||||
Include,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 16,
|
||||
col: 6,
|
||||
},
|
||||
tt: Keyword(
|
||||
False,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 15,
|
||||
col: 5,
|
||||
},
|
||||
tt: Keyword(
|
||||
True,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 14,
|
||||
col: 7,
|
||||
},
|
||||
tt: Keyword(
|
||||
Static,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 13,
|
||||
col: 4,
|
||||
},
|
||||
tt: Keyword(
|
||||
Mut,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 12,
|
||||
col: 6,
|
||||
},
|
||||
tt: Keyword(
|
||||
Const,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 11,
|
||||
col: 4,
|
||||
},
|
||||
tt: Keyword(
|
||||
Let,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 10,
|
||||
col: 9,
|
||||
},
|
||||
tt: Keyword(
|
||||
Continue,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 9,
|
||||
col: 6,
|
||||
},
|
||||
tt: Keyword(
|
||||
Break,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 8,
|
||||
col: 4,
|
||||
},
|
||||
tt: Keyword(
|
||||
For,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 7,
|
||||
col: 6,
|
||||
},
|
||||
tt: Keyword(
|
||||
While,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 6,
|
||||
col: 5,
|
||||
},
|
||||
tt: Keyword(
|
||||
Type,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 5,
|
||||
col: 5,
|
||||
},
|
||||
tt: Keyword(
|
||||
Enum,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 4,
|
||||
col: 7,
|
||||
},
|
||||
tt: Keyword(
|
||||
Struct,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 3,
|
||||
col: 5,
|
||||
},
|
||||
tt: Keyword(
|
||||
Else,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 2,
|
||||
col: 3,
|
||||
},
|
||||
tt: Keyword(
|
||||
If,
|
||||
),
|
||||
},
|
||||
Token {
|
||||
loc: Loc {
|
||||
file: "tokeniser/keywords.mcl",
|
||||
line: 1,
|
||||
col: 3,
|
||||
},
|
||||
tt: Keyword(
|
||||
Fn,
|
||||
),
|
||||
},
|
||||
]
|
||||
Reference in New Issue
Block a user