module Analyzer.D.lexical.tokenized_module;

// import std.stdio;
// import std.string;
// import Analyzer.D.lexical.token;
// import Analyzer.D.lexical.module_file;

// class TokenizedModule
// {
    // private
    // {
        // TokenList tokens;
        // Module mod;
    // }
    // public
    // {
        // this( Module mod, TokenList tokens )
        // {
            // this.mod = mod;
            // this.tokens = tokens;
        // }
    // }

    // Module getModule()
    // {
        // return mod;
    // }

    // TokenList getTokenList()
    // {
        // return tokens;
    // }
// }