Fixed #960 (Tokenizer::validate() assertion failure with mismatched brackets)
This commit is contained in:
parent
7890589693
commit
91f7c15c24
|
@ -1508,6 +1508,7 @@ void Tokenizer::simplifyNamespaces()
|
||||||
|
|
||||||
bool Tokenizer::createLinks()
|
bool Tokenizer::createLinks()
|
||||||
{
|
{
|
||||||
|
std::list<const Token*> type;
|
||||||
std::list<Token*> links;
|
std::list<Token*> links;
|
||||||
std::list<Token*> links2;
|
std::list<Token*> links2;
|
||||||
std::list<Token*> links3;
|
std::list<Token*> links3;
|
||||||
|
@ -1521,6 +1522,7 @@ bool Tokenizer::createLinks()
|
||||||
if (token->str() == "{")
|
if (token->str() == "{")
|
||||||
{
|
{
|
||||||
links.push_back(token);
|
links.push_back(token);
|
||||||
|
type.push_back(token);
|
||||||
}
|
}
|
||||||
else if (token->str() == "}")
|
else if (token->str() == "}")
|
||||||
{
|
{
|
||||||
|
@ -1530,6 +1532,12 @@ bool Tokenizer::createLinks()
|
||||||
syntaxError(token, '{');
|
syntaxError(token, '{');
|
||||||
return false;
|
return false;
|
||||||
}
|
}
|
||||||
|
if (type.back()->str() != "{")
|
||||||
|
{
|
||||||
|
syntaxError(type.back(), type.back()->str()[0]);
|
||||||
|
return false;
|
||||||
|
}
|
||||||
|
type.pop_back();
|
||||||
|
|
||||||
Token::createMutualLinks(links.back(), token);
|
Token::createMutualLinks(links.back(), token);
|
||||||
links.pop_back();
|
links.pop_back();
|
||||||
|
@ -1537,6 +1545,7 @@ bool Tokenizer::createLinks()
|
||||||
else if (token->str() == "(")
|
else if (token->str() == "(")
|
||||||
{
|
{
|
||||||
links2.push_back(token);
|
links2.push_back(token);
|
||||||
|
type.push_back(token);
|
||||||
}
|
}
|
||||||
else if (token->str() == ")")
|
else if (token->str() == ")")
|
||||||
{
|
{
|
||||||
|
@ -1546,6 +1555,12 @@ bool Tokenizer::createLinks()
|
||||||
syntaxError(token, '(');
|
syntaxError(token, '(');
|
||||||
return false;
|
return false;
|
||||||
}
|
}
|
||||||
|
if (type.back()->str() != "(")
|
||||||
|
{
|
||||||
|
syntaxError(type.back(), type.back()->str()[0]);
|
||||||
|
return false;
|
||||||
|
}
|
||||||
|
type.pop_back();
|
||||||
|
|
||||||
Token::createMutualLinks(links2.back(), token);
|
Token::createMutualLinks(links2.back(), token);
|
||||||
links2.pop_back();
|
links2.pop_back();
|
||||||
|
@ -1553,6 +1568,7 @@ bool Tokenizer::createLinks()
|
||||||
else if (token->str() == "[")
|
else if (token->str() == "[")
|
||||||
{
|
{
|
||||||
links3.push_back(token);
|
links3.push_back(token);
|
||||||
|
type.push_back(token);
|
||||||
}
|
}
|
||||||
else if (token->str() == "]")
|
else if (token->str() == "]")
|
||||||
{
|
{
|
||||||
|
@ -1562,6 +1578,12 @@ bool Tokenizer::createLinks()
|
||||||
syntaxError(token, '[');
|
syntaxError(token, '[');
|
||||||
return false;
|
return false;
|
||||||
}
|
}
|
||||||
|
if (type.back()->str() != "[")
|
||||||
|
{
|
||||||
|
syntaxError(type.back(), type.back()->str()[0]);
|
||||||
|
return false;
|
||||||
|
}
|
||||||
|
type.pop_back();
|
||||||
|
|
||||||
Token::createMutualLinks(links3.back(), token);
|
Token::createMutualLinks(links3.back(), token);
|
||||||
links3.pop_back();
|
links3.pop_back();
|
||||||
|
|
|
@ -2439,6 +2439,20 @@ private:
|
||||||
ASSERT_EQUALS(false, tokenizer.tokenize(istr, "test.cpp"));
|
ASSERT_EQUALS(false, tokenizer.tokenize(istr, "test.cpp"));
|
||||||
ASSERT_EQUALS("[test.cpp:3]: (error) Invalid number of character ([). Can't process file.\n", errout.str());
|
ASSERT_EQUALS("[test.cpp:3]: (error) Invalid number of character ([). Can't process file.\n", errout.str());
|
||||||
}
|
}
|
||||||
|
|
||||||
|
{
|
||||||
|
errout.str("");
|
||||||
|
const char code[] = "{\n"
|
||||||
|
" a(\n"
|
||||||
|
"}\n"
|
||||||
|
"{\n"
|
||||||
|
" b());\n"
|
||||||
|
"}\n";
|
||||||
|
Tokenizer tokenizer(0, this);
|
||||||
|
std::istringstream istr(code);
|
||||||
|
ASSERT_EQUALS(false, tokenizer.tokenize(istr, "test.cpp"));
|
||||||
|
ASSERT_EQUALS("[test.cpp:2]: (error) Invalid number of character ((). Can't process file.\n", errout.str());
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
void removeKeywords()
|
void removeKeywords()
|
||||||
|
|
Loading…
Reference in New Issue